《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 基于SIFT和人機交互的遙感影像識別方法研究
基于SIFT和人機交互的遙感影像識別方法研究
來源:微型機與應用2011年第3期
呂 萌
(燕山大學 信息科學與工程學院,河北 秦皇島 066004)
摘要: 尺度不變特征變換(SIFT)算法具有良好的尺度、光照以及空間旋轉不變性,在人機交互的環境中可以很好地識別出影像。介紹了SIFT算法和人機交互原理,并進行了實驗論證。實驗結果表明,該方法能較好地識別出遙感影像,并具有實時性意義。
Abstract:
Key words :

摘  要: 尺度不變特征變換(SIFT)算法具有良好的尺度、光照以及空間旋轉不變性,在人機交互的環境中可以很好地識別出影像。介紹了SIFT算法和人機交互原理,并進行了實驗論證。實驗結果表明,該方法能較好地識別出遙感影像,并具有實時性意義。
關鍵詞: SIFT;遙感影像;識別;人機交互

 飛機在采集敵方重要地面目標影像時,會產生各種類型的影像,使得實時識別影像非常困難。通常目標影像會發生旋轉、縮放、成像品質等變化。近年來,在計算機視覺領域,基于局部不變量描述符的方法在目標識別和圖像配準方面取得了顯著進展。2004 年,哥倫比亞大學的LOWE David G教授提出一種基于新特征點提取的尺度不變特征變換(SIFT)算法[1]。該算法較好地解決了物體發生旋轉縮放、視角以及光照變化引起的圖像變形等問題,并在人機交互的環境下,能實時識別地面目標。
1 SIFT算法原理
 SIFT特征向量生成的實現順序為檢測尺度空間中的極值點、定位極值點的位置、確定特征點的方向、生成描述特征點的特征向量。
1.1 檢測尺度空間極值點
 尺度空間理論目的是模擬圖像數據的多尺度特征,高斯卷積核是實現尺度變換的唯一線性核,一幅二維圖像的尺度空間定義為:



式中,(x,y)是空間坐標;σ是尺度坐標,σ值越小,表征該圖像被平滑得越少,相應的尺度也就越小。大尺度對應于圖像的概貌特征,小尺度對應于圖像的細節特征。為了有效地在尺度空間檢測到穩定的關鍵點,提出了高斯差分尺度空間(DoG Scale-space)。利用不同尺度的高斯差分核與圖像卷積生成 DoG算子,其計算簡單,是尺度歸一化的LoG算子的近似。為了尋找尺度空間的極值點,每一個采樣點要與它所有的相鄰點比較,看其比它的圖像域和尺度域的相鄰點大或者小。如圖1所示,中間的檢測點與它同尺度的 8 個相鄰點和上下相鄰尺度對應的點(共26個點)進行比較,以確保在尺度空間和二維圖像空間都檢測到極值點。

1.2 特征點過濾并進行精確定位
 在該過程中,精確確定關鍵點的位置和尺度,要同時去除低對比度的特征點和不穩定的邊緣相應點,以增強匹配穩定性、提高抗噪聲能力。
1.3 特征點的方向值分配
 利用關鍵點鄰域像素的梯度方向分布特性為每個關鍵點指定方向參數,使算子具備旋轉不變性。首先在高斯尺度空間計算特征點的梯度模和方向公式:

 其中,m是梯度模;θ是梯度方向;L是原圖與高斯核的卷積,L所用的尺度為每個關鍵點各自所在的尺度,在實際計算時,通常以關鍵點為中心的領域窗口內采樣,用直方圖統計鄰域像素的梯度方向。
1.4 生成描述特征點的特征向量
 首區域上計算8個方向的梯度直方圖,繪制每個梯度方向的累加值,即可形成一個種子點,因此,一共可以生成16個種子點。這樣,對于每個關鍵點就可以產生一個長度為128的數據,即最終形成一個長度為128的 SIFT特征向量。此時SIFT特征向量已經去除了尺度變化、旋轉等幾何變形因素的影響,再繼續將特征向量的長度歸一化,則可進一步去除光照變化的影響。這種鄰域方向性信息聯合的思想增強了算法的抗噪聲能力,同時對含有定位誤差的特征匹配也提供了較好的容錯性。特征向量生成的示意圖如圖2所示。

2 人機交互原理
 人機交互主要是利用人自身的高速、準確識別物體的能力對目標進行實時識別。其重要指標是反應時間[2]。反應時間是指人從機器或外界獲得信息,經過大腦加工分析發出指令,到運動器官開始執行動作所需的時間。反應時間是從包括感覺反應時間(從信息開始刺激到感覺器官有感覺所用時間)到開始動作所用時間(信息加工、決策、發令開始執行所用時間)的總和。
 由于人的生理心理因素的限制,人對刺激的反應速度是有限的。一般情況下,反應時間約為0.1 s~0.5 s,而受過特殊訓練的飛行員反應時間可以在0.1 s左右。其反應時間的判別表示為:

式中,k為常數,n為等概率出現的選擇對象數。
3 實驗
 橋梁是重要軍事目標,實現對橋梁的實時打擊具有重要意義。本實驗的軟件平臺為Matlab r2009a,計算機平臺為AMD 7750雙核處理器(2 GB內存),選用某城市的某一橋梁(空間分辨率為10 m)進行實驗。
3.1 采集圖與模板圖角度相同
 圖3為已知橋梁模板圖,其像素值為26×57。圖4為第一幅采集圖,其像素值為200×112。圖3、圖4的視角高度為6 km。圖5為對模板圖的關鍵點分析。圖6為對模板圖的實時定位結果,其中在橫坐標中,從0~26是模板圖,26~226是采集圖,從圖6可以看出,采用SIFT算法可以將目標識別出來,并能精確定位該橋梁的位置。
3.2采集圖與模板圖角度不同

 圖7為發生旋轉的采集圖,其像素值為191×166,視角高度為6 km。圖8為實時定位結果,其中在橫坐標中,0~26是模板圖,26~217是采集圖。

3.3 采集圖與模板圖角度、視角高度都不同
 圖9為角度、視角高度都與模板圖不同的采集圖,其像素值為196×161,視角高度為6.52 km。圖10是實時定位結果,其中在橫坐標中,0~26是模板圖,26~222是采集圖。

 實驗關鍵參數如表1所示。從實驗結果可知,由于檢測出來的關鍵點較少,所以在人機交互的環境下,采用SIFT算法能實時地精確定位識別橋梁目標,定位的準確度高于以往采用二值化圖像方法和提取邊緣線方法來識別遙感影像目標,識別的速度高于以往的改進SIFT算法[3],并且其應用范圍也比較廣[4]。但是本文提出的方法同其他改進算法一樣存在不足,對于天氣較差時采集的影像,無法定位或識別率大大降低。如何提高特征向量的特征度,從而提高定位和識別的正確率,同時又可以保證實時性,將是下一步研究工作的重點。

參考文獻
[1] LOWE D G. Distinctive image features from scale—invariant keypoints[J]. International Journal of Computer Vision,2004, 60(2):91-110.
[2] http://zhidao. baidu. com/question/109629278. html? si=8. 2010-08-29.
[3] GRABNER M, GRABNER H, BISCHOF H. Fast approximated SIFT[C]. Asian Conference on Computer Vision, Hyderabad, India, 2006: 918-927.
[4] 裴聰,戴立玲,盧章平.基于SIFT的簡化算法下圖像快速匹配[J].制造業自動化,2010,32(1):132-135.

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 成人国产精品高清在线观看 | 国产一区二区三区不卡在线观看 | 色综合日韩 | 日本农村寡妇一级毛片 | 萌白酱粉嫩jk福利在线观看 | 中国一级淫片aaa毛片毛片 | 国产精品a人片在线观看 | 成人影院欧美大片免费看 | 国产成人精品亚洲日本语音 | 国产老鸭窝毛片一区二区 | 久久精品精品 | 精品久久久久久久久久久 | 一级片中文字幕 | 九九久久精品这里久久网 | 亚洲最新在线 | 国产a级三级三级三级 | 亚洲精品久久久久影院 | 全免费a级毛片免费毛视频 全午夜免费一级毛片 | 国产一在线精品一区在线观看 | 国产一级做a爰片在线看免费 | 国产中文字幕在线观看 | 日本私人色多多 | 欧美最新的精品videoss | 精品国产精品国产 | 一级毛片一级毛片a毛片欧美 | 日韩一区二区三区四区不卡 | 性xxxx奶大欧美高清 | 深夜成人性视频免费看 | 一级一级 a爱片免费视频 | 久久久久久久综合色一本 | 亚洲福利精品一区二区三区 | 日韩欧美久久一区二区 | 亚洲精品一区二区三区美女 | 久久一级毛片 | 欧美无玛| 成人免费久久精品国产片久久影院 | 成人在线亚洲 | xxxxaaa欧美另类| 男人的天堂精品国产一区 | 在线播放成人高清免费视频 | 午夜在线成人 |