《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 擬人視覺系統的顯著性檢測方法
擬人視覺系統的顯著性檢測方法
2016年電子技術應用第11期
張文康1,朱 倩2,陳瀟君2
1.江蘇大學附屬醫院 信息科,江蘇 鎮江212013;2.江蘇大學 計算機科學與通信工程學院,江蘇 鎮江212013
摘要: 從人眼的視覺機制出發,提出了一種擬人視覺系統的顯著性檢測方法。該方法首先對圖像進行量化并選取出高頻顏色,降低了計算的復雜度,然后對圖像進行分割對比,初始的視覺點以圖像的中心作為基準點,通過提出的視覺引力模型迭代計算出視覺點的移動軌跡,最終尋找到顯著區域。在公開的數據集上的實驗結果表明,本方法所尋找到的顯著區域相對于其他方法能夠更精確地對顯著區域進行標注,更加符合實際應用。
中圖分類號: TP391
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.2016.11.033
中文引用格式: 張文康,朱倩,陳瀟君. 擬人視覺系統的顯著性檢測方法[J].電子技術應用,2016,42(11):122-125.
英文引用格式: Zhang Wenkang,Zhu Qian,Chen Xiaojun. The saliency detection based on mimic human visual systems[J].Application of Electronic Technique,2016,42(11):122-125.
The saliency detection based on mimic human visual systems
Zhang Wenkang1,Zhu Qian2,Chen Xiaojun2
1.Department of Information,Affiliated Hospital of Jiangsu University,Zhenjiang 212013,China; 2.Department of Computer Science and Telecommunication Engineering,Jiangsu University,Zhenjiang 212013,China
Abstract: This paper presents a saliency detection based on human visual systems. To begin with,it quantifies image and chooses high frequency color to reduce the complex of calculation. Then, it splits image and chooses the center point of image as the first visual point, iteratively calculates visual point according to visual attraction model,and acquires saliency area. The experimen results show that the method is more accurate than other methods to mark the salient and is very useful for practical application.
Key words : saliency detection;mimic human visual systems;image quantization;visual attraction

0 引言

    顯著性可以描述為場景中的某一元素相對于同場景其他元素更加能吸引人的注意力,是人類在視覺感知的過程中總結出來的,由于人的視覺共性,使得有些元素對于不同的人來講吸引力是共同的,這些區域往往集中了最重要的信息,因此顯著性檢測在圖像處理領域顯得十分重要,主要的應用領域包括:圖像的檢索、數據壓縮、目標識別、導航定位等。目前國內外學者對這一領域進行了廣泛深入的研究,主要的研究方法有:ITTI L和KOCH C[1]提出跨尺度周邊算子模型來進行顯著區域的檢測,主要原理是通過計算小尺度和大尺度特征差別來計算顯著性。但是該方法計算過程復雜,并且精確性不高。HARBEL J[2]提出使用馬爾科夫鏈計算中心周邊概率,并用基于圖論的概率模型得到顯著圖,此方法的提取精度有提升,但是計算仍然復雜。GAO D[3]通過最大值法提取中心和周邊區域中特征分布的相互信息,提取的效果較好。

1 圖像量化

    圖像的顯著性計算需要對每個像素點進行計算,那么在計算時就有2563種顏色。顏色變化范圍很小時人眼是無法準確區分的。如圖1所示,每個通道的顏色小范圍變化時,所得到的最終顏色圖的差異是不大的。每個通道的顏色變化較大時,最終所得到的圖的顏色可以觀察到明顯的變化。所以,在小范圍減少圖像中顏色數目,圖像質量會下降,但是對最終圖像的顯示影響很小,所以可以將相似的顏色量化為相同的顏色。

jsj5-t1.gif

    定義如下:

jsj5-gs1.gif

jsj5-gs2-3.gif

    經過量化后的RGB空間有1 728中顏色,也就是123,很顯然自然圖像的色彩只屬于這1 728種顏色的一小部分,同時人眼也無法精確辨別這些顏色。所以就需要對圖像進行篩選,為了不影響圖片的質量,就要確保篩選出的色值能夠覆蓋大多數的像素點,對于少部分沒有覆蓋到的像素點可以用距離其最近的色值替代。

jsj5-gs4-10.gif

    根據式(9)、式(10)可把出現頻率比較低的顏色用最相似的顏色代替。

    經過量化后大大降低了顏色的數目,以圖2為例,量化前顏色數目為58 921,量化后的顏色數目為100,這樣就加快了圖像處理的速度。

jsj5-t2.gif

    量化后的數據集定義為:

    jsj5-gs11.gif

2 顏色空間轉換

    將圖像從RGB空間轉換到XYZ空間,轉換矩陣如下:

     jsj5-gs12.gif

    轉化后得到像素帶點在XYZ空間下每個通道的色值,接著再轉換到Lab顏色空間,經過一系列的顏色空間轉換之后,顏色數據集定義為:

    jsj5-gs13.gif

3 擬人視覺系統的顯著性計算

    使用GB分割算法對圖像進行分割,得到每一個小的圖像塊,相同的圖像塊可認為是一個整體,則可認為一個圖像塊中的像素點具有相同的顯著性。當兩個圖像塊距離較遠時,對人的視覺影響比較大,同理,較近時對人眼的視覺影響較小。則顯著性計算公式如下:

jsj5-gs14-15.gif

其中,f(ck,j)表示圖像塊sk中第j種顏色出現的次數。

    視覺角度來講,人眼在觀察圖像的時候首先是會集中在圖像的中心,然后再移動到顯著性區域,所以本文提出一種擬人視覺系統的顯著性計算方法,顯著性計算公式改寫如下:

     jsj5-gs16.gif

其中,Ds(sk,VFn)表示圖像塊sk和視覺點VFn之間的距離。

    分割后不同的圖像塊對人眼的吸引是不同的,人在觀察圖像時最先會被中心吸引,然后才會被顯著性區域吸引,這種吸引稱為視覺引力。視覺引力的大小與像素點的顯著性和視覺點之間的距離有關,這里定義每個像素對視覺點的引力如下:

jsj5-gs17-18.gif

    想要獲得最終視覺點的位置,就需要計算初始的視覺點的位移偏量,由式(18)得出每個像素點在水平和垂直方向上的分力:

     jsj5-gs19.gif

其中,px和py表示像素點在水平和垂直方向的坐標,VFx、VFy表示視覺點在水平和垂直方向的坐標。

    這里參考力學模型,所以可以理解,視覺點在視覺引力的作用下,移動的規則與力學中的規則是一致的。

    例如,如圖3 F2的值比F1的值大,但是他們的方向是相反的,因此視覺點就從L1移到L2

jsj5-t3.gif

    所有像素點在水平和垂直方向上分力的合力為:

     jsj5-gs20-22.gif

    則根據式(16)可得最終的視覺點。

    算法流程如下:(1)輸入圖像,并分割得到其圖像塊集;(2)計算圖像塊集中每一個圖像塊的顯著值;(3)計算每一個像素對上一個視覺點的引力;(4)計算引力在橫坐標和縱坐標上的分力;(5)計算所有像素在橫坐標和縱坐標上分力的合力;(6)計算出視覺點移動的距離;(7)計算出新視覺點的位置;(8)重復步驟(2~7),直到兩個視覺點的距離小于一個閾值,則可認為最終計算的視覺點為顯著性區域。

4 實驗與分析

    采用achanta圖像集,選用該圖像集的好處就是每一張圖像都對顯著區域進行了標注,有利于確認算法最終結果的準確性。對其中的圖像進行分類,選取200張顯著區域在中心的圖片,記為數據集A;選取200張顯著區域不在中心的圖片,記為數據集B。

    評價指標選用準確率和召回率,并選用目前常用的區域對比顯著性檢測方法[4]和多尺度顯著性檢測方法[5]同時來處理圖片,與本文方法進行對比。實驗中分別檢測數據集A和數據集B中的顯著性區域,并與人工標準的結果進行對比計算,獲得每一副圖像的準確率和召回率。

    使用實驗集A去評估3種方法的顯著性檢測結果,并計算出準確率和召回率的平均值,繪制出直方圖進行對比。

    如圖4所示,使用本文方法和區域對比法計算出的準確率和召回率要高于多尺度法,這是由于選取的數據集A中的圖片顯著性區域都位于圖片的中心,使用本文算法和區域對比法方法進行視覺焦點加權時,顯著性檢測的效果會更好,使得圖片中的顯著性區域會被準確地檢測出來。

jsj5-t4.gif

    再使用實驗集B來評估本文算法、區域對比法、多尺度法對于顯著性區域的檢測效果。

    如圖5所示,本文算法和多尺度法的準確率和召回率比區域對比法高,這是由于數據集B中的圖片的顯著區域沒有位于圖像的中心。區域對比方法的效果較差是因為加強了中心區域,也就是非顯著性區域,而使用本文算法,由于是模擬人眼的視覺機制,可以正確找到視覺顯著區域,所以在數據集B上使用本文算法方法可以更加準確地檢測出顯著性區域。

jsj5-t5.gif

    圖6分別表示顯著性區域在中心和不在中心的檢測結果。可以看出,區域對比方法對顯著區域不在中心的檢測效果不理想,因為其會分割出不屬于顯著區域的部分并對其效果進行增強。多尺度法對于顯著區域在中心的圖片檢測效果不理想,是因為其會導致周圍的區域顯著值過大,從而影響中心區域的顯著值。

jsj5-t6.gif

5 結束語

    本文從人眼視覺機制角度提出了擬人視覺系統的顯著性檢測方法,首先概述了目前常見的顯著性檢測的研究方法,然后詳細闡述了本文所提算法的前提條件,也就是圖像量化和顏色篩選。從人眼視覺機制出發,提出了視覺引力的概念,并給出了詳細的計算方法,通過視覺引力計算出人眼對于圖像中的視覺點,并最終獲取到顯著性區域。通過實驗構建了兩個不同類型的數據集,通過與其他常見算法的對比證明本文所提算法的準確性要高,并證明了算法的可行性。

參考文獻

[1] ITTI L,KOCH C,NIEBUR E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transaction on Pattern Analysis and Machined Intelligence,1998,20(11):1254-1259.

[2] HAREL J,KOCH C,PERONA P.Graph-based visual saliency[C].Advances in Neural Information Processing Systems,2006:545-552.

[3] GAO D,MAHADEVAN V,VASCONCELOS N.The discriminant center-surround hypothesis for bottom-up saliency[C].Advances in Neural Information Processing Systems,2007:497-504.

[4] 敖歡歡.視覺顯著性應用研究[D].合肥:中國科學技術大學,2013.

[5] 李勇.多尺度特征檢測:方法和應用研究[D].合肥:中國科學技術大學,2010.

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 成人a免费α片在线视频网站 | 无码孕妇孕交在线观看 | 久久欧美久久欧美精品 | 成人毛片手机版免费看 | 兔子先生节目在线观看免费 | 国产精品成人免费 | 国产精品夜色视频一级区 | 免费视频成人 | 一级毛片美国 | 国产20岁美女一级毛片 | 国产美女精品视频免费观看 | 在线私拍国产福利精品 | 国产夫妻视频 | 韩国美女高清爽快一级毛片 | 久久精品6 | 一区二区三区视频 | 亚洲天堂影院在线观看 | 精品免费久久久久欧美亚一区 | 成人免费久久精品国产片久久影院 | 黄色a三级三级三级免费看 黄色a网 | 免费国产成人手机在线观看 | 国产高清在线精品一区 | 高清性做爰免费网站 | 一级毛片真人免费播放视频 | 亚洲精品综合欧美一区二区三区 | 亚洲成av人在线视 | 久久综合色88 | 亚洲理论欧美理论在线观看 | 免费特黄一级欧美大片在线看 | 亚洲成aⅴ人片在线影院八 亚洲成av人片在线观看 | 中国一级淫片aaa毛片毛片 | 欧美 另类 精品一区视频 | 国产精品自拍亚洲 | 亚洲精品视频免费观看 | 99re最新这里只有精品 | 欧美日韩亚洲综合久久久 | 亚洲综合视频 | 一本色道久久88 | 免费人成在线观看播放国产 | 国产福利一区二区三区 | 亚洲在线国产 |