《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于深度回歸的指針儀表讀數(shù)識(shí)別方法
基于深度回歸的指針儀表讀數(shù)識(shí)別方法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第12期
彭昆福1,王子磊1,王 磊2,顧 楊2
1中國(guó)科學(xué)技術(shù)大學(xué) 信息科學(xué)技術(shù)學(xué)院,安徽 合肥230027; 2.國(guó)網(wǎng)安徽省電力有限公司檢修分公司,安徽 合肥231131
摘要: 現(xiàn)有儀表讀數(shù)識(shí)別方法通過(guò)檢測(cè)指針和刻度獲取讀數(shù),對(duì)輸入的儀表圖像質(zhì)量要求較高,為此提出一種新的基于深度回歸的指針儀表讀數(shù)識(shí)別方法。該方法首先由儀表圖像獲取圖像特征,然后通過(guò)方向回歸模塊預(yù)測(cè)指針?lè)较颍詈蟾鶕?jù)指針角度計(jì)算儀表讀數(shù)。相比于其他方法,該方法采用端到端的回歸方式進(jìn)行直接學(xué)習(xí),具有更強(qiáng)的識(shí)別能力。在較大規(guī)模變電站儀表圖像數(shù)據(jù)集上,該方法取得了97.2%的讀數(shù)精度,相比于基于Mask R-CNN的儀表讀數(shù)識(shí)別方法提高了7.4%。定性分析和定量分析結(jié)果表明,相比于現(xiàn)有的儀表讀數(shù)識(shí)別方法,該方法對(duì)表盤(pán)圖像干擾具有更強(qiáng)的魯棒性。
中圖分類號(hào): TP319.4
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2020.12.007
引用格式: 彭昆福,王子磊,王磊,等. 基于深度回歸的指針儀表讀數(shù)識(shí)別方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(12):37-43.
Pointer meter reading recognition by deep regression
Peng Kunfu1,Wang Zilei1,Wang Lei2,Gu Yang2
1.School of Information Science and Technology,University of Science and Technology of China,Hefei 230027,China; 2.State Grid Anhui Maintenance Company,Hefei 231131,China
Abstract: Existing pointer meter recognition methods usually predict the results by detecting pointer and scale marks, thus require high-quality meter images, which have weak robustness to interferences such as dial blurring, glistening, stains, and yellowing. To address this issue, we propose an end-to-end pointer meter reading recognition method by deep regression, which firstly extracts rich features from the meter image, then regresses the orientation of the pointer using an orientation regression module, and finally calculates the value of the meter reading from the pointer angle. Benefitted from the end-to-end training and novel regression way, our proposed method can achieve better recognition performance. We conduct experiments on a large scale dataset of pointer meters of substations and our method achieves an average recognition accuracy of 97.2%, which is higher by 7.4% than the Mask R-CNN based method. Qualitative and quantitative analysis results show that our method possesses stronger robustness to various dial interferences than the existing method.
Key words : pointer meter;reading recognition;deep learning;end-to-end;regression

0 引言

    隨著數(shù)字化、智能化的普及,大部分工業(yè)場(chǎng)景都采用數(shù)字儀表,但是對(duì)于電力行業(yè),指針儀表由于其穩(wěn)定性、抗干擾性優(yōu)勢(shì),仍廣泛應(yīng)用于我國(guó)的電力實(shí)際監(jiān)控中[1]。但大部分指針儀表的讀取仍依靠人工進(jìn)行,要求工作人員到現(xiàn)場(chǎng)進(jìn)行數(shù)據(jù)記錄,費(fèi)時(shí)費(fèi)力、容易出錯(cuò)。因此,指針儀表讀數(shù)自動(dòng)識(shí)別技術(shù)的研究具有重要意義[2]

    關(guān)于指針儀表自動(dòng)識(shí)別的研究早期已經(jīng)出現(xiàn),這些工作[3-6]主要基于傳統(tǒng)計(jì)算機(jī)視覺(jué)技術(shù)。參照人工儀表讀數(shù)的原理,傳統(tǒng)方法大致由儀表檢測(cè)、儀表分類、儀表校正、預(yù)處理、指針檢測(cè)、刻度檢測(cè)、讀數(shù)計(jì)算幾個(gè)步驟組成,但由于采用表征能力比較弱的人工圖像描述方法,同時(shí)又依賴比較強(qiáng)的先驗(yàn)信息,因此對(duì)圖像質(zhì)量要求較高,在復(fù)雜條件下的識(shí)別性能不盡人意。

    當(dāng)前,深度學(xué)習(xí)因其強(qiáng)大的表征能力已經(jīng)開(kāi)始應(yīng)用于指針儀表自動(dòng)識(shí)別領(lǐng)域。文獻(xiàn)[7]較早采用Faster R-CNN進(jìn)行儀表檢測(cè),然后通過(guò)自適應(yīng)閾值分割、連通域分析和中心投影來(lái)檢測(cè)指針和刻度,最終根據(jù)指針與刻度之間的角度計(jì)算讀數(shù)。在此基礎(chǔ)上,文獻(xiàn)[8]對(duì)Faster R-CNN結(jié)構(gòu)進(jìn)行針對(duì)性優(yōu)化,并融入表盤(pán)鏡面反射消除方法,從而提升模型的魯棒性。與此類似,文獻(xiàn)[9]利用9層卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行儀表檢測(cè),然后利用橢圓變換進(jìn)行儀表校正,接著利用Hough變換檢測(cè)指針;文獻(xiàn)[10]通過(guò)全卷積網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)檢測(cè)儀表,然后進(jìn)行圖像濾波和校正,最后通過(guò)極坐標(biāo)徑向灰度統(tǒng)計(jì)的方法檢測(cè)指針;文獻(xiàn)[11]利用YOLO9000檢測(cè)儀表,然后利用EAST(Efficient and Accurate Scene Text detector)算法識(shí)別儀表刻度數(shù)值,并根據(jù)數(shù)值位置提取指針。相比于傳統(tǒng)方法,這些方法的性能有所提升,但深度神經(jīng)網(wǎng)絡(luò)都只應(yīng)用在儀表檢測(cè)階段,后續(xù)讀數(shù)識(shí)別流程仍基于傳統(tǒng)計(jì)算機(jī)視覺(jué)方法,沒(méi)有充分發(fā)揮深度學(xué)習(xí)的優(yōu)勢(shì),因此仍然存在傳統(tǒng)方法讀數(shù)不精確的問(wèn)題。

    近期,一些方法開(kāi)始在讀數(shù)識(shí)別階段應(yīng)用深度學(xué)習(xí)方法。文獻(xiàn)[12]提出利用基于PrRoIPooling(Precise RoI Pooling,精確感興趣區(qū)域池化)的Mask R-CNN同時(shí)完成儀表檢測(cè)和表盤(pán)、指針?lè)指睿?duì)分割出的表盤(pán)進(jìn)行橢圓變換從而得到指針?lè)较颍窃摲椒ㄖ贿m用于圓形儀表。文獻(xiàn)[13]提出先對(duì)圖像進(jìn)行去霧、補(bǔ)全、超分辨等一系列預(yù)處理,然后用Mask R-CNN進(jìn)行儀表檢測(cè)和指針?lè)指睿窃擃A(yù)處理過(guò)程比較復(fù)雜。文獻(xiàn)[14]提出利用Mask R-CNN對(duì)儀表圖像進(jìn)行指針關(guān)鍵點(diǎn)和刻度關(guān)鍵點(diǎn)檢測(cè),然后從指針和關(guān)鍵點(diǎn)計(jì)算儀表讀數(shù),該方法能夠適應(yīng)不同形狀的儀表,也無(wú)需復(fù)雜的預(yù)處理,但關(guān)鍵點(diǎn)檢測(cè)性能容易受到表盤(pán)模糊、反光、臟污、泛黃等條件的干擾,因此性能仍有待提升。文獻(xiàn)[15]提出采用Faster R-CNN進(jìn)行儀表和指針區(qū)域檢測(cè),然后利用U-Net對(duì)檢測(cè)出的儀表和指針區(qū)域分別進(jìn)行刻度和指針?lè)指睿詈罄梅律渥儞Q校正儀表,但是該方法的采用網(wǎng)絡(luò)較大,特征冗余度較高。

    針對(duì)指針儀表讀數(shù)的這些問(wèn)題,受到場(chǎng)景文本識(shí)別工作TextSnake[16]的啟發(fā),本文提出一種新的基于深度回歸的儀表讀數(shù)識(shí)別方法,該方法不顯式地檢測(cè)指針和關(guān)鍵點(diǎn),而是將指針檢測(cè)、刻度識(shí)別、干擾抑制隱式地結(jié)合起來(lái),通過(guò)回歸方法實(shí)現(xiàn)對(duì)儀表圖像的端到端處理。具體地,給定一張儀表圖像,先通過(guò)ResNet50[17]獲取圖像特征,然后利用一個(gè)方向回歸模塊從特征回歸儀表指針?lè)较颍詈蟾鶕?jù)指針角度獲取儀表讀數(shù)。實(shí)驗(yàn)證明,本文方法對(duì)表盤(pán)模糊、反光、臟污、泛黃等抗干擾性強(qiáng),讀數(shù)識(shí)別精度相比于基于Mask R-CNN的儀表讀數(shù)識(shí)別方法顯著提高。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://www.rjjo.cn/resource/share/2000003224




作者信息:

彭昆福1,王子磊1,王  磊2,顧  楊2

(1中國(guó)科學(xué)技術(shù)大學(xué) 信息科學(xué)技術(shù)學(xué)院,安徽 合肥230027;

2.國(guó)網(wǎng)安徽省電力有限公司檢修分公司,安徽 合肥231131)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 久久久精品久久久久久久久久久 | 一本一道波多野结衣456 | vvvv99日韩精品亚洲 | 4438全国最大成人网视频 | 精品400部自拍视频在线播放 | 欧美一级毛片高清毛片 | 国产亚洲精品2021自在线 | 久久综合久美利坚合众国 | a级毛片免费高清毛片视频 a级毛片免费高清视频 | 欧美日韩国产一区三区 | 欧美综合视频在线观看 | 亚洲一级毛片免费在线观看 | 久色福利 | 怡红院成人在线 | 玖玖在线国产精品 | 国产精品一区在线观看 | 国产亚洲精品激情一区二区三区 | 99爱在线精品视频免费观看9 | 国产精品毛片 | 香蕉成人在线视频 | 久久久久欧美国产精品 | 91青青国产在线观看免费 | 亚洲加勒比久久88色综合一区 | 鲁老汉精品视频在线观看 | 波多野结衣一级片 | 久久99精品综合国产首页 | 国产成人一区二区三区在线播放 | 久草视频新| 91久久精品国产免费一区 | 黄色免费看片网站 | 一区二区三区日本视频 | 一级片免 | 国产上床视频 | 欧美黑粗特黄午夜大片 | 国产大片线上免费看 | 国产精品99久久久 | 亚洲免费视频在线观看 | 普通话对白国产精品一级毛片 | 最刺激黄a大片免费网站 | 99久久精品国产自免费 | 日韩精品小视频 |