《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 基于三維時空注意的密集連接視頻超分算法
基于三維時空注意的密集連接視頻超分算法
網絡安全與數據治理 2期
何嘯林,吳麗君
(福州大學 物理與信息工程學院,福建 福州350116)
摘要: 針對視頻超分對時間幀間信息以及分層信息的利用不充分,設計了一種具有空間時序注意力機制的密集可變形視頻超分辨率重建網絡。利用三維卷積來提取經可變形卷積模塊對齊后的相鄰幀之間的時間序列信息,同時設計具有步幅卷積層的輕量級模塊來提取空間注意力信息。在特征重構階段引入密集連接,充分利用分層特征信息以實現更好的特征重建。選取公共數據集進行實驗驗證,結果表明,提出的算法在客觀評價指標與視覺對比效果上都有提升。
中圖分類號: TP391
文獻標識碼: A
DOI: 10.19358/j.issn.2097-1788.2023.02.011
引用格式: 何嘯林,吳麗君. 基于三維時空注意的密集連接視頻超分算法[J].網絡安全與數據治理,2023,42(2):70-75.
Densely connected video super-resolution based on three-dimensional spatial-sequential attention
He Xiaolin,Wu Lijun
(College of Physics and Information Engineering,Fuzhou University,Fuzhou 350116,China)
Abstract: Aiming at the insufficient utilization of temporal inter-frame information and hierarchical information in video super-resolution, a dense deformable video super-resolution reconstruction network with spatial-sequential attention mechanism is designed. Three-dimensional convolution is used to extract sequence information between adjacent frames aligned by deformable convolution module, and a lightweight module with strided convolution layer is designed to extract spatial attention information. Dense connections are introduced in the feature reconstruction stage to make full use of hierarchical feature information to achieve better feature reconstruction. The public datasets are selected for experimental verification. The results show that the proposed algorithm has improved both objective evaluation indicators and visual contrast effects.
Key words : video super-resolution;three-dimensional spatial-sequential attention;deformable convolution;dense connection

0 引言

視頻超分辨(Video Super-Resolution,VSR)算法是一項具有挑戰性的課題,倍受人們的關注。相較于單圖像的超分辨率重建,視頻超分辨率重建可以利用幀之間的相關性和連續幀間的時間信息。視頻超分的目標是在相鄰的低分辨率幀(Low Resolution,LR)的幫助下,重建出高分辨率幀(High Resolution,HR)。早期的研究[1-3]將視頻超分視為圖像重建的簡單擴展,并沒有考慮到物體運動,性能較差。對此,人們開始研究一些顯式運動補償的方法,最為廣泛的是使用光流來估計幀之間的運動并執行變形。然而,對光流進行準確的預測是比較困難的,尤其是在存在遮擋或大運動時,當對光流量的不準確預測時可能會引入偽影[4]。為了解決這個問題,研究人員開始研究隱式運動補償方法。在隱式補償方法中,可變形卷積較為常用[5]。時序可變形對齊視頻超分網絡(Temporally Deformable Alignment Network,TDAN)[4]首次將可變形卷積引入視頻超分任務中;增強型可變形卷積視頻超分網絡(Video Restoration with Enhanced Deformable Convolutional Networks,EDVR)[6]將跨幀信息與可變形網絡和注意力機制融合在一起。相比光流法,可變形卷積的方法解決了偽影問題,但注意力機制的設計仍有改進空間。對于連續幀的視頻任務,視頻的序列信息是至關重要的。由于在時間注意力模塊中僅僅采用二維卷積,無法提取時間序列維度的信息,以往方法中的時空注意力模塊僅僅只是在兩幀之間進行自注意力加權。

本文設計了一種具有三維空間順序注意機制的密集可變形視頻超分辨率重建網絡。在視頻幀對齊模塊之后引入空間時序注意力模塊,利用三維卷積操作來捕獲幀間序列信息。在超分任務中,引入空間注意力中金字塔結構使得網絡能夠獲得更大的感受野,但也帶來了冗余參數。本文通過幾個卷積層和池化層的組合來重新設計空間注意模塊,利用更少的參數保持一個大的感受野。此外,為了在特征重建階段充分利用分層特征,設計了一個由密集連接和殘差組成的密集連接重建模塊。

綜上所述,本文設計了一種三維空間時序注意力機制。應用三維卷積來獲取時間注意模塊中的幀間序列信息。在空間注意力模塊中,修改卷積的步長,使用卷積組結合池化來實現輕量化。同時設計密集連接重建模塊,通過密集連接充分利用分層特征信息,更好地完成特征重建。



本文詳細內容請下載:http://m.jysgc.com/resource/share/2000005216




作者信息:

何嘯林,吳麗君

(福州大學 物理與信息工程學院,福建 福州350116)


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 国产免费内射又粗又爽密桃视频 | 青春草在线视频观看| 国产精品多人P群无码| 99人中文字幕亚洲区| 好男人社区www在线视频| 中文字幕日韩有码| 日本免费xxxx色视频| 九九久久精品国产AV片国产| 欧美人与物videos另类xxxxx| 亚洲精品中文字幕无乱码| 狠狠色综合网站久久久久久久| 制服丝袜在线不卡| 老司机深夜影院| 国产乱理伦片在线观看| 鸭王3完整版免费完整版在线观看| 国产精品jlzz视频| 2021在线观看视频精品免费| 国内揄拍高清国内精品对白| 99精品在线观看视频| 天天av天天翘天天综合网| xinjaguygurporn| 嫩模bbw搡bbbb搡bbbb| 七次郎最新首页在线视频| 成人片黄网站a毛片免费| 中文字幕欧美成人免费| 无遮挡韩国成人羞羞漫画视频| 久久亚洲色www成人欧美| 日韩一区二区三区不卡视频| 久久综合九色欧美综合狠狠| 最近中文国语字幕在线播放| 亚洲AV综合AV一区二区三区| 欧洲美女与动zooz| 亚洲αv在线精品糸列| 欧美一区二区三区成人片在线 | 青青青国产手机在线播放| 国产在线无码精品电影网| 丁香婷婷亚洲六月综合色| 国产欧美精品一区二区三区-老狼| 中文字幕天天干| 国产欧美精品一区二区三区| 国产女人18毛片水|