《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 基于雙注意力和多區域檢測的細粒度圖像分類
基于雙注意力和多區域檢測的細粒度圖像分類
2022年電子技術應用第8期
潘新辰,楊小健,秦 嶺
南京工業大學 計算機科學與技術學院,江蘇 南京211816
摘要: 有效地檢測具有辨別性的局部區域和更準確地提取圖像的細粒度特征有助于提高細粒度圖像的分類效果。為此,提出了一種結合雙注意力機制和多區域檢測的細粒度圖像分類方法。多區域檢測旨在通過類別標簽學習定位到具有辨別性的圖像區域,然后通過特征提取網絡提取辨別性局部區域的特征并與全局特征相融合。同樣,更精確的特征提取網絡能夠提取圖像細粒度的特征。因此,通過將雙注意力機制和多區域檢測相結合,所提出的方法在3個公開的細粒度圖像數據集CUB-200-2011、StanfordCars和FGVC Aircraft上分別達到了88.3%、94.5%和92.3%的準確率。
中圖分類號: TP301.6
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.211980
中文引用格式: 潘新辰,楊小健,秦嶺. 基于雙注意力和多區域檢測的細粒度圖像分類[J].電子技術應用,2022,48(8):117-122.
英文引用格式: Pan Xinchen,Yang Xiaojian,Qin Ling. Fine-grained image classification based on dual attentions and multi-region detection[J]. Application of Electronic Technique,2022,48(8):117-122.
Fine-grained image classification based on dual attentions and multi-region detection
Pan Xinchen,Yang Xiaojian,Qin Ling
Computer Science and Technology,Nanjing University of Technology,Nanjing 211816,China
Abstract: Effectively detecting discriminative local areas and more accurately extracting fine-grained features of images will help improve the classification effect of fine-grained images. For this reason, a fine-grained image classification method combining dual attention mechanism and multi-region detection is proposed. Multi-region detection aims to locate discriminative image regions through class label learning, and then extract the features of the discriminative local regions through a feature extraction network and merge them with global features. Similarly, a more precise feature extraction network can extract fine-grained features of an image. Therefore, by combining the dual attention mechanism and multi-region detection, the proposed method respectively achieves 88.3%, 94.5% and 92.3% accuracy on three public fine-grained image datasets, CUB-200-2011, StanfordCars and FGVC Aircraft.
Key words : fine-grained image classification;attention mechanism;regional detection;convolutional neural network;feature extraction;feature group

0 引言

    目前,深度學習技術已被廣泛應用于圖像分類領域,細粒度圖像分類旨在區分同種對象的不同類別。相較于傳統圖像分類,細粒度圖像分類的難點在于:(1)不同類別之間的高相似性,難以找到具有辨別性的區域并提取細節特征;(2)同一種類別之間由于圖像視角、光照、背景和遮擋等因素的變化也存在著一定的差異性。因此,如何定位具有辨別性的局部區域,以及如何更精確地提取細粒度特征,成為目前細粒度圖像分類方法的主要研究方向。

    為了檢測具有辨別性的局部區域,一些方法[1-2]通過人工標注的方式對細粒度圖像中具有辨別性的區域進行標注,然后通過網絡學習定位辨別性局部區域,從而提高網絡模型的分類準確性,需要花費大量的時間、人力對圖像進行標注,成本太大。還有一些方法[3-4]利用類別標簽以弱監督的方式來學習具有辨別性的局部區域,這類方法雖然不能夠達到使用人工標注的標簽進行監督學習的效果,但額外成本幾乎為零。

    注意力機制作為提升網絡特征提取能力的重要手段[5]主要分為通道注意力機制和空間注意力機制,通道注意力機制可以學習到不同通道間的權重關系,空間注意力機制可以學習不同像素間的依賴關系。合理利用以上兩個注意力機制能夠更細粒度提取圖像的特征,從而能夠更好地進行分類。




本文詳細內容請下載:http://m.jysgc.com/resource/share/2000004663




作者信息:

潘新辰,楊小健,秦  嶺

(南京工業大學 計算機科學與技術學院,江蘇 南京211816)



wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 美女胸又大又黄又www的网站| 7777精品伊人久久久大香线蕉| 日韩激情电影在线观看| 亚洲欧美在线视频| 男人j桶进女人p无遮挡免费| 四虎国产精品高清在线观看| 鸥美一级黄色片| 国产毛片久久久久久国产毛片| 91制片厂(果冻传媒)原档破解| 天天躁日日躁aaaaxxxx| 一级片在哪里看| 挺进男同的屁股眼o漫画| 久久午夜无码鲁丝片午夜精品| 欧洲美熟女乱又伦av影片| 亚洲欧美一区二区三区| 爽爽影院色黄网站在线观看| 再深点灬舒服灬太大了快点 | 日本边添边摸边做边爱的网站| 亚洲youjizz| 欧美性受xxxx白人性爽| 亚洲欧美日韩精品久久亚洲区色播| 男女性色大片免费网站| 别揉我胸啊嗯上课呢的作文| 美女隐私免费视频看| 国产一有一级毛片视频| 野外做受又硬又粗又大视频| 国产在线国偷精品免费看| 国产精品揄拍一区二区久久| 国产精品一区亚洲一区天堂 | 精品久久久影院| 十七岁免费观看高清| 羞羞视频免费网站含羞草| 国产chinasex对白videos麻豆| 西西人体444rt高清大胆| 国产偷国产偷亚洲高清日韩| 麻豆传煤入口麻豆公司传媒| 国产成人无码精品一区在线观看 | 无码aⅴ精品一区二区三区| 久久久久久影院久久久久免费精品国产小说 | 樱桃黄高清完整版在线观看| 亚洲免费网站观看视频|