文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.212449
中文引用格式: 劉彤,楊德振,宋嘉樂,等. 空基下視多角度紅外目標識別[J].電子技術應用,2022,48(7):131-139.
英文引用格式: Liu Tong,Yang Dezhen,Song Jiale,et al. Air-based downward-looking multi-angle infrared target recognition[J]. Application of Electronic Technique,2022,48(7):131-139.
0 引言
采用多個復合翼無人機集群的空基紅外目標探測識別系統進行協同態勢感知是地面遠程紅外制導的有效輔助手段。其中艦船和車輛目標的智能識別算法作為當代陸海防務系統中關鍵技術,對于保障我國的國防安全具有重要的應用價值。紅外圖像具有對比度高、作用距離遠、穿透力強等特點,熱成像不需要借助外界光源,隱蔽性好,可以全天時工作。目前多數車載系統的視角為平視,平視視場受限,而使用機載系統可以獲得更大的下視視場角,在實戰中能有效探測和攔截低空突防的威脅目標。
傳統目標識別算法難以對下視視場角的圖像進行特征提取,作為端到端學習的深度學習,能夠自動提取圖像特征,具有較好的目標識別能力。北京理工大學的王旭辰等[1]提出基于深度學習的無人機載多平臺目標檢測算法,使用Darknet-53網絡作為檢測器,在公開數據集UAV123和實測數據集中進行檢測,驗證得到該算法在視角旋轉、目標尺度變化以及障礙物遮擋下能進行穩定檢測。但文中僅使用了YOLOv3目標檢測算法,并未對其進行改進,檢測精度沒有得到提高。電子科技大學的劉瑞[2]針對空中目標存在目標尺度及疏密程度變化大、存在重疊、遮擋等問題,提出四級復雜度的航空圖像目標檢測算法,采用復合擴張主干網深度和寬度的方法構建出四級復雜度的主干網絡,再將主干網分別與FPN+PAN網絡、輸出頭網絡相結合,得到空中目標檢測算法。在VisDrone-DET2020訓練集下對提出的網絡進行訓練,將算法的mAP@[.5:.95]累計提升了0.65%,[email protected]累計提升了1.41%。但僅在公開數據集上進行訓練與檢測,該公開數據集僅為可見光數據集,不具備紅外數據集所具備的優點。嚴開忠等[3]針對小型無人機載平臺算力受限、檢測速度慢的問題,提出了一種改進YOLOv3的目標檢測算法,引入深度可分離卷積對主干網絡進行改進,降低網絡的參數和計算量,從而提高檢測速度。此外使用K-means生成先驗框的初始聚類中心,在邊界框回歸中使用CIoU損失,同時將DIoU與NMS相結合,提高算法的檢測精度。在自定義數據集中的mAP為82%,檢測速度從3.4 f/s提高到16 f/s。但算法的檢測精度和速度仍有待提高。上海交通大學的朱壬泰等[4]針對目前深度學習中多目標檢測算法占用資源量大,無法在中小型無人機平臺上實時運行的問題,提出了基于卷積神經網絡計算優化的算法。采用深度可分離卷積對計算量進行優化,將主干網Resnet18中的卷積層替換為深度可分離卷積,對改進的算法在公開數據集PASCAL VOC 2007進行驗證,得到在檢測精度不變的條件下,檢測速度達到56 f/s。但該算法在航拍數據集上的檢測精度由于與公開數據集分布的差異有所下降,對航拍目標的適應性不強。周子衿[5]針對深度學習網絡結構復雜,機載平臺計算資源有限,以及航拍視角中小目標數量大,難以對圖像特征進行提取,容易出現漏檢和錯檢現象,對YOLOv3網絡進行輕量化處理,在網絡稀疏化訓練后進行BN層的通道剪枝,此外使用K-maens++算法對先驗框進行重定義,將改進后的算法在自定義的DOTA-like數據集上進行測試,算法權重模型大小下將98.7%,使得推理時間加快了60.5%,檢測速度提高了32.9%,檢測精度提高1.14%。但無人機的飛行高度較低,局限于超低空域附近,所看到的視場角受限。
本文詳細內容請下載:http://www.rjjo.cn/resource/share/2000004602。
作者信息:
劉 彤1,2,3,楊德振1,4,宋嘉樂1,2,3,傅瑞罡3,何佳凱1
(1.華北光電技術研究所 機載探測中心,北京100015;2.中國電子科技集團公司電子科學研究院,北京100015;
3.國防科技大學 電子科學學院ATR重點實驗室,湖南 長沙410073;
4.北京真空電子技術研究所 微波電真空器件國家重點實驗室,北京100015)