《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 基于RGB-D單目視覺的室內場景三維重建
基于RGB-D單目視覺的室內場景三維重建
2017年微型機與應用第1期
劉三毛,朱文球,孫文靜,王業祥
湖南工業大學 計算機學院,湖南 株洲 412007
摘要: 針對室內環境單目視覺的室內場景三維重建速度慢的問題,采用華碩Xtion單目視覺傳感器獲取的室內場景彩色圖像和深度圖像進行快速三維重建。在圖像特征提取上使用ORB特征檢測算法,并對比了幾種經典特征檢測算法在圖像匹配中的效率,在圖像匹配融合中采用Ransac算法和ICP算法進行點云融合。實現了一種室內簡單、小規模的靜態環境快速三維重建方法,通過實驗驗證了該方法有較好的精確性、魯棒性、實時性和靈活性。
Abstract:
Key words :

  劉三毛,朱文球,孫文靜,王業祥

  (湖南工業大學 計算機學院,湖南 株洲 412007)

        摘要:針對室內環境單目視覺的室內場景三維重建速度慢的問題,采用華碩Xtion單目視覺傳感器獲取的室內場景彩色圖像和深度圖像進行快速三維重建。在圖像特征提取上使用ORB特征檢測算法,并對比了幾種經典特征檢測算法在圖像匹配中的效率,在圖像匹配融合中采用Ransac算法和ICP算法進行點云融合。實現了一種室內簡單、小規模的靜態環境快速三維重建方法,通過實驗驗證了該方法有較好的精確性、魯棒性、實時性和靈活性。

  關鍵詞:單目視覺;點云;三維重建

  中圖分類號:TP391文獻標識碼:ADOI: 10.19358/j.issn.1674-7720.2017.01.014

  引用格式:劉三毛,朱文球,孫文靜,等.基于RGBD單目視覺的室內場景三維重建[J].微型機與應用,2017,36(1):44-47.

0引言

  三維重建(3D Reconstruction)是指利用計算機、傳感器,通過對場景的紋理、深度等數據進行分析和處理后構建適合計算機表示和處理的數學模型。隨著工業信息技術的發展三維重建得到了廣泛應用,如在移動機器人自主導航、SLAM、虛擬現實和3D打印等諸多方面都發揮著十分重要的作用[1]。

  1965年ROBERT L提出了使用計算機視覺方法從二維圖像獲取物體三維信息的可能性。FAUGRAS M A和Hartley[23]于1992年開創性地提出了基于圖像系列的三維重建理論,在他們的論文中,把三維重建總結為3個步驟:基礎矩陣的估計、攝像機的標定以及計算投影矩陣和相應的三維空間坐標。即輸入二維圖像,通過求解對應攝像機運動參數及幾何結構,生成圖像場景的三維模型。隨著RGBD相機的成熟,它可提供彩色深度圖像和稠密深度圖像視頻流,這使得結合三維深度感測的視覺功能優勢來快速、準確地創建大場景的三維場景信息[45]成為現實。

  采用RGBD相機獲取彩色圖像和深度圖像,使用深度圖像信息結合稀疏特征點創建三維場景模型。首先提取每幀圖像的特征點,通過特征匹配找到兩幀圖像之間的對應特征點,由深度圖像信息計算出對應點對的空間坐標(Xw,Yw,Zw)。針對圖像特征點誤匹配導致位姿估計的精度低的問題,采用隨機采樣一致性算法(Random Sample Consensus,RANSAC)[6]剔除誤匹配點,其次在點云融合上,結合迭代最近算法(Iterative Closest Point,ICP)[7] 進行點云配準以進一步改善位姿精度,減少相機位姿漂移造成的誤差。

12D到3D坐標轉換

  設三維空間中任意一點P的坐標為(Xw,Yw,Zw),該點對應的相機坐標系坐標為(Yc,Zc),(x,y)、(u,v)分別是二維圖像中的物理坐標和像素坐標。根據針孔相機模型,相機坐標系與世界坐標系關系如圖1所示。

  

001.jpg

  對空間任意一點P(Xw,Yw,Zw)進行剛體變換,映射到相機坐標系中點P(Xc,Yc,Zc),如式(1):

  C0H`H5N3AH9S271KL$1R7_O.png

  其中T是三維空間平移向量,R是3×3的正交旋轉矩陣。得到相機坐標系坐標后通過透射投影得到物理系坐標P(x,y),考慮到相機畸變因子,得到P(x,y)為:

  YD84OB79E{882@7OROOQE_O.png

  其中k1、k2、p1、p2為畸變系數,是相機外部參數矩陣M2,由物理坐標轉換為像素坐標P(u,v)關系如下:

  8HG~A6J6E{~Q[N4)7NY5)TU.png

  其中,fx、fy指相機在x、y軸上的焦距,cx、cy指相機的光圈中心點坐標,fx、fy、cx、cy這4個參數為相機的內參矩陣M1,給定相機內參之后,每個點的空間位置與像素坐標就可以用矩陣模型表示:

  F@ORONATSES9VA8[~Z)A(M4.png

  其中,R和T是相機的姿態。R代表旋轉矩陣,T代表位移矢量,s是深度距離與實際距離的比例因子。由上述結果進行齊次變換后得到三維空間點P與二維圖像像素坐標的映射關系:

  s·p=M1M2P(5)

  其中,M1、M2為相機的內參和外參,由標定結果得到。P=(X,Y,Z)為空間點齊次坐標,p=(u,v,l)為二維圖像像素齊次坐標。

2點云融合

  2.1特征檢測

  圖像的特征提取與匹配是實現三維重建的基礎,現在常用的特征檢測算法為1999年David Lowe提出的SIFT(Scale Invariant Feature Transform)算法,并于2004年進行了深入的發展和完善[8]。SIFT算法最大的優點是具有尺度不變性,圖像之間發生了平移、旋轉、仿射變換的情況下仍可以進行特性匹配。SIFT算法提取到的特征點豐富,適合圖像精準匹配,但時間復雜度高,實時性差。BAY H等人于2006年改進了SIFT算法,提出了SURF[9](Speeded Up Robust Features)算法,SURF算法繼承了SIFT算法尺度不變的優點,且大大提高了執行效率。ROSTEN E和DRUMMOND T于2006年提出了FAST[10]算法,該算法通過檢查圖像塊中是否存在角點來判斷特征點,算法簡單,避免了求解二階導數,因此運算速度上快于SURF和SIFT算法。

  RUBLEE E等人于2011年提出了ORB[11]算法,該算法采用視覺信息特征點檢測與描述方法,結合了FAST算法特征點檢測速度快的優勢,加入FAST特征的方向信息,改進了FAST算法不具備檢測特征點方向性的問題。特征點描述部分則是利用基于像素點二進制位比較的BRIEF[12]特征描述子,并改進了 BRIEF描述子對圖像噪聲敏感和不具備旋轉不變性的缺點。準確、快速的特征提取與匹配算法是實時三維重建的重要前提,本文在特征匹配中比較了這幾種常用的特征檢測算法。

  2.2基于ORB的特征匹配

  由于同一場景的RGB圖像和深度圖像數據一一對應關系,通過二維圖像坐標與三維坐標的映射關系可以得到場景的三維點云圖像。相機的廣度不能獲取室內場景的全局圖像,所以需要對連續幀進行融合獲取大場景的圖像。假設相機水平旋轉獲取的兩幀相鄰場景圖像為K1、K2,使用ORB特征點匹配得到結果如圖2所示。

002.jpg

  可以看出兩幀圖像的特征匹配存在誤匹配特征點,對匹配特征點進行篩選可以提高匹配的準確性和效率。由于相機是水平旋轉的,首先剔除水平距離過大的匹配點,然后采用RANSAC(隨機采樣一致性)算法[6]剔除誤匹配,進一步提高匹配的準確性。通過特征匹配得到兩幅圖像的特征點均為800個,匹配特征點為788個,篩選后得到的匹配個數為72個,結果如圖3。

 

003.jpg

  本文實驗環境為Liunx平臺下基于Opencv采用C++語言實現,運行硬件環境為Intel Pentium 3.0 GHz CPU,運行內存4 GB。

  SIFT、SURF、FAST、ORB 4種角點檢測算法在特征提取和幀間匹配中的比較結果如表1。

009.jpg

  2.3點云拼接

  相機緩慢移動獲得連續的圖像幀序列,要進行圖像的匹配融合首先要知道連續圖像的運動關系,設相機運動如圖4所示,其旋轉矩陣為R、位移矩陣為T。

004.jpg

  提取相鄰幀K1、K2間的特征點匹配對,描述為K1={p1,p2,…,pN},K2={q1,q2,…,qN},其中p、q都是三維坐標的點,于是有:

  i,pi=Rqi+T+Ni(6)

  其中Ni代表噪聲。根據最優化理論,求解旋轉矩陣R和平移矩陣T,需要滿足下式最小:

  %U~A20%Z0@59$3P${D2NPYW.png

  通過求解最小誤差可求得R和T,采用經典的ICP[7]算法求解。該算法是一種非線性迭代方法,通過不斷迭代最近的匹配點求解變換矩陣,實現局部點云到整體點云的融合。

3基于ICP算法的三維重建框架

  3.1算法框架

  實驗采用華碩公司的Xtion深度相機緩慢轉動獲取連續的數據幀,先將起始幀圖像集合(RGB圖像和深度圖像)轉換成點云,實現局部圖像的二維到三維的轉換,當相機采集到下一幀圖像集合時,通過提取兩幀圖像的特征進行匹配,并計算相機的平移和旋轉向量進行點云融合。通過相機移動形成完整的三維模型。算法流程如圖5所示。

 

005.jpg

  主要步驟有:

  (1)相機標定,獲取RGB圖像和深度圖像;

  (2)對彩色圖像進行特征提取,結合特征點的深度信息實現2D到3D的轉換,生成局部點云圖;

  (3)相機跟蹤,將當前幀3D 點云和由現有模型生成的預測的3D 點云進行ICP 匹配,計算得到當前幀相機的位姿;

  (4)點云融合,根據所計算出的當前相機位姿,將當前幀的3D 點云融合到現有模型中。

  3.2相機標定

  相機標定的目的是建立有效的成像模型,并確定相機內外部屬性參數,以便建立空間與平面像素點之間的對應關系。相機是物體空間(三維空間)到2D圖像之間的一種映射,而這種映射由相機成像的幾何模型決定,幾何模型的參數就是相機的參數,由這些參數可以推導三維空間坐標與二維圖像坐標之間的變換關系。

  實驗使用張正友棋盤標定算法[13],通過MATLAB工具箱(Camera Calibration Toolbox)中提供的方法進行相機標定。使用A4紙自制7×9方格標定模板,正方形小方格邊長為27.8 mm,選取相機不同位姿拍攝的20幅標定模板圖像對相機進行標定。

  通過華碩Xtion深度相機獲取同一場景的RGB圖像和中值濾波后的深度圖像如圖6所示,圖(a)為RGB圖像,圖(b)為深度圖像。

006.jpg

  3.3實驗結果

  華碩(Xtion pro live)深度相機的深度有效距離約0.2~5 m,彩色圖像和深度圖像的分辨率都為640×480。由于相機的廣度有限不能獲取室內場景的全局圖像,需要對獲取的連續幀進行點云融合來獲取大場景的圖像。實驗通過手持Xtion相機掃描室內場景,獲取連續的數據幀,實現室內場景的實時三維重建,相機移動軌跡如圖7所示。

007.jpg

  相機在室內移動采集數據幀,相鄰幀之間可進行特征匹配,計算出相機運動的R和T矩陣,結合特征點的深度信息得到三維匹配關系, 基于ICP算法迭代相鄰點云圖像,不斷融合新信息形成由局部三維點云場景到整個室內場景的三維重建。如圖8所示,圖(a)為局部三維場景點云圖,圖(b)為整體三維場景點云圖。

008.jpg

4結論

  本文實現了基于RGB-D相機的室內場景三維重建方法,通過華碩(Xtion pro live)深度相機在室內環境中能夠得到準確、稠密的三維模型,在特征提取上采用了ORB算法,特征匹配和點云拼接采用RANSAC和ICP算法。該方法在室內靜態環境中有很強的實時性、準確性和魯棒性,且大大提高了三維重建的效率。隨著深度相機的價格不斷下降,尤其是室內機器人自主導航的研究和發展,基于RGB-D的三維重建系統將會對人們的日常生活產生巨大的影響。

參考文獻

  [1] THOMAS D, SUGIMOTO A. A flexible scene representation for 3D reconstruction using an RGBD camera[C]. IEEE International Conference on Computer Vision, IEEE Computer Society, 2013:2800-2807.

  [2] HARTLEY  R I. Estimation of relative camera positions for uncalibrated cameras[C]. European Conference on Computer Vision, SpringerVerlag, 1992:579-587.

  [3] FISCHLER M A, BOLLES R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[M]. Readings in Computer Vision: Issues, Problems, Principles, and Paradigms. Morgan Kaufmann Publishers Inc. 1987:726-740.

  [4] LEE K R, NGUYEN T. Realistic surface geometry reconstruction using a handheld RGBD camera[J]. Machine Vision & Applications, 2016,27(3):377-385.

  [5] KERL C, STURM J, CREMERS D. Dense visual SLAM for RGBD cameras[C]. Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2013:2100-2106.

  [6] SCHNABEL R, WAHL R, KLEIN R. Efficient RANSAC for pointcloud shape detection[J]. Computer Graphics Forum, 2007, 26(2):214-226.

  [7] BESL P J, MCKAY N D. Method for registration of 3D shapes[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1992, 14(3):239-256.

  [8] LOWE D G. Distinctive image features from scaleinvariant keypoints[J]. International Journal of Computer Vision, 2004, 60(60):91-110.

  [9] BAY H, TUYTELAARS T, GOOL L V. SURF: speeded up robust features[J]. Computer Vision & Image Understanding, 2006, 110(3):404-417.

  [10] ROSTEN E, DRUMMOND T. Machine learning for highspeed corner detection[C]. European Conference on Computer Vision, SpringerVerlag, 2006:430-443.

  [11] RUBLEE E, RABAUD  V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF[C]. In International Conference of Computer Vision(ICCV),2011: 2564-2571.

  [12] CALONDER′ M, LEPETIT V, STRECHA C, et al. Brief: binary robust independent elementary features[C]. In European Conference on Computer Vision,2010:778-792.

  [13] Zhang Zhengyou. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000,22(11):1330-1334.


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 精品久久久久久久高清 | 国产在线高清视频 | 欧美区一区 | 亚洲国产成人精品一区91 | 日韩视频大全 | 一色屋成人免费精品网 | 精品国产欧美一区二区最新 | 欧美a一片xxxx片 | 男女扒开双腿猛进入免费网站 | a国产成人免费视频 | 欧美视频在线观看 | 亚洲高清在线视频 | 国产精品久久久久久搜索 | 久色乳综合思思在线视频 | 99在线小视频 | 91久久精品国产一区二区 | 亚洲黄色性视频 | 一级毛片看一个 | 欧美毛片大全 | 国产呦精品一区二区三区网站 | 狠狠色噜狠狠狠狠色综合久 | 国产成人丝袜视频在线视频 | 久久成年片色大黄全免费网站 | 免费a级毛片视频 | 国产在线手机视频 | 亚洲国产精品67194成人 | 国产乱子伦露脸对白在线小说 | 欧美日韩国产亚洲一区二区三区 | 看黄网址 | 久久精品视频免费在线观看 | 国产精品黑丝 | 国产一级免费视频 | 亚洲精品亚洲一区二区 | 日本色中色 | 手机在线亚洲 | 久久在线观看免费视频 | 波多野结衣在线播放视频 | 亚洲精品国产成人7777 | 精品成人毛片一区二区视 | 国产做a爰片久久毛片 | 日本免费一级视频 |