iT邦幫忙

2024 iThome 鐵人賽

DAY 28
0

前面介紹了如何使用RGB做姿態估計,以及利用 triangulation得到3D點雲。由於沒有深度訊息,相機姿態需要考慮的投影問題,並且得到的3D點雲再沒有經過額外處理下非常稀疏(sparse),畢竟只有匹配的特徵點才可以算出3D點。

要如何改進呢?

當我們有了深度圖(已知相機拍攝範圍內的3D資訊),我們也可以用來估計相機姿態與重建出更完整的 3D 模型,也就是 mesh。

因此本系列最後的幾篇文,將會來介紹兩個利用深度圖的主流算法:

  1. 迭代最近點(Iterative closest point)算法:利用兩張鄰近幀特深度圖估計相機姿態
  2. TSDF Fusion 或稱 Kinect Fusion 算法:已知的相機姿態資訊,融合多張深度圖重建出三維模型。

實作的部分也會圍繞 TUM RGB-D 數據集進行。由於目前較新的 iPhone 都有拍攝深度圖的功能(RGB-D 影片),因此,如果有機會,也可以來嘗試介紹使用第三方的 App,拍攝RGB-D 影片,並且搜集的資料拿來作為三維重建的材料。相信比起公開數據集,若是使用自己拍攝的資料,得到的結果更能使嘗試的讀者更有感覺。


上一篇
Day26: 實作:從深度圖到 3D 點雲
下一篇
Day28: 迭代最近點算法(Iterative closest point)
系列文
3D 重建實戰:使用 2D 圖片做相機姿態估計與三維空間重建30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言