《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 設(shè)計(jì)應(yīng)用 > 基于Faster R-CNN的道路裂縫識(shí)別
基于Faster R-CNN的道路裂縫識(shí)別
2020年電子技術(shù)應(yīng)用第7期
李太文,范昕煒
中國(guó)計(jì)量大學(xué) 質(zhì)量與安全工程學(xué)院,浙江 杭州310000
摘要: 傳統(tǒng)的道路裂縫識(shí)別方法有基于R-CNN、SPPnet、HOG+SVM等多種方法,但識(shí)別精度低、檢測(cè)速度慢。針對(duì)這些缺點(diǎn),提出一種基于Faster R-CNN的道路裂縫識(shí)別方法。首先,采集道路裂縫圖像,建立Pascal VOC數(shù)據(jù)集;其次,基于谷歌開(kāi)發(fā)的TensorFlow深度學(xué)習(xí)框架,用數(shù)據(jù)集對(duì)Faster R-CNN進(jìn)行訓(xùn)練并分析各項(xiàng)性能參數(shù)指標(biāo)。實(shí)驗(yàn)結(jié)果表明,在迭代20 000次的情況下,可將訓(xùn)練損失降到0.188 5,AP值達(dá)到0.780 2,取得了良好效果。
中圖分類(lèi)號(hào): TN13
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.191412
中文引用格式: 李太文,范昕煒. 基于Faster R-CNN的道路裂縫識(shí)別[J].電子技術(shù)應(yīng)用,2020,46(7):53-56,59.
英文引用格式: Li Taiwen,F(xiàn)an Xinwei. Road crevice recognition based on Faster R-CNN[J]. Application of Electronic Technique,2020,46(7):53-56,59.
Road crevice recognition based on Faster R-CNN
Li Taiwen,F(xiàn)an Xinwei
School of Quality and Safety Engineering,China Jiliang University,Hangzhou 310000,China
Abstract: Traditional road crack recognition methods are based on R-CNN, SPPnet, HOG+SVM and other methods, but the recognition accuracy is low and the detection speed is slow. In view of these shortcomings, a road crack recognition method based on Faster R-CNN is proposed. Firstly, road crack images were collected to build Pascal VOC data set. Secondly, the TensorFlow deep learning framework developed based on Google trains the Faster R-CNN with data sets and analyzes various performance parameters. The experimental results show that the training loss can be reduced to 0.188 5 and the AP value can reach 0.780 2 in the case of 20 000 iterations, achieving good results.
Key words : machine learning;deep learning;CNN;road cracks;Faster-RCNN

0 引言

    近幾十年公路在中國(guó)得到蓬勃發(fā)展,保養(yǎng)維護(hù)也日益成為一個(gè)問(wèn)題,需要定期對(duì)路面狀況進(jìn)行檢查,以便制定相應(yīng)的維護(hù)策略,其中重要的一項(xiàng)指標(biāo)是路面裂縫。若能在裂縫的出現(xiàn)初期就能發(fā)現(xiàn),并及時(shí)跟蹤它的發(fā)展情況,那么它的維護(hù)費(fèi)用將大大降低。如何在不影響正常的交通情況下對(duì)整段路面進(jìn)行實(shí)時(shí)的監(jiān)測(cè),成為亟待解決的一大難題。傳統(tǒng)的基于人工視覺(jué)的識(shí)別方法越來(lái)越不能適應(yīng)高速公路發(fā)展的要求,其耗人力、耗時(shí)、危險(xiǎn)、花費(fèi)高、效率低,還影響正常的交通。計(jì)算機(jī)高性能處理器、大容量存儲(chǔ)器以及圖像處理技術(shù)的快速發(fā)展,使得路面裂縫的實(shí)時(shí)自動(dòng)識(shí)別與識(shí)別技術(shù)成為可能。文獻(xiàn)[1]提出基于改進(jìn)K-means算法的不均勻光照下道路裂縫識(shí)別,文獻(xiàn)[2]對(duì)基于數(shù)字圖像的混凝土道路裂縫識(shí)別方法進(jìn)行了描述,傳統(tǒng)的裂縫目標(biāo)識(shí)別算法有基于SVM[3-4]、HOG[5]特征和DPM[6]等多種方法,但這些方法在識(shí)別過(guò)程中分多個(gè)階段進(jìn)行識(shí)別,精度不高且檢測(cè)速度慢。針對(duì)傳統(tǒng)的裂縫目標(biāo)識(shí)別方法存在的不足,本文提出一種基于Faster-RCNN[7](Faster Region-Convolutional Neural Network)的道路裂縫識(shí)別方法,不僅可以自動(dòng)提取裂縫特征,而且在識(shí)別精度和檢測(cè)速度方面也取得了良好的效果。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://m.jysgc.com/resource/share/2000002900




作者信息:

李太文,范昕煒

(中國(guó)計(jì)量大學(xué) 質(zhì)量與安全工程學(xué)院,浙江 杭州310000)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 中文字幕aⅴ人妻一区二区| 亚洲伊人成人网| 美女把尿口扒开让男人桶| 国产挤奶水主播在线播放| 69成人免费视频无码专区| 奇米影视888欧美在线观看| 中文午夜人妻无码看片| 日本在线观看电影| 久久精品国产精品亚洲精品| 欧美国产第一页| 亚洲精品第一国产综合野| 神马伦理电影看我不卡| 可爱男生被触手入侵下面| 英语老师解开裙子坐我腿中间| 国产成人女人毛片视频在线| 菠萝视频在线完整版| 国产综合久久久久久鬼色| 99在线热视频只有精品免费| 女人张开腿让男人桶视频免费大全| 中文天堂在线观看| 无码综合天天久久综合网| 久久婷婷五月综合色奶水99啪| 朝桐光亚洲专区在线中文字幕| 亚洲国产亚洲片在线观看播放 | 一级毛片直播亚洲| 我和岳乱妇三级高清电影| 久久久久国色av免费观看| 日本边添边摸边做边爱边| 久久精品老司机| 曰批免费视频播放60分钟| 亚洲av无码专区在线观看下载 | 天天碰免费视频| 国产白浆视频在线播放| 骚包在线精品国产美女| 国产精品入口麻豆完整版| 2020求一个网站男人都懂| 国产美女极度色诱视频www| 91精品国产亚洲爽啪在线观看| 国语自产偷拍精品视频偷| 99在线观看视频免费精品9| 在线视频欧美日韩|