內在和外在的矩陣和三維點座標我想用多RGB照相機來重建三維場景。輸入數據沒有相機校準信息,所以我想使用束調整算法(Ceres-solver)來估計校準信息。初始相機捆綁調整
現在我已經獲得的成對匹配的特徵點,但我發現,在束調整算法(的Ceres解算器)的算法也需要初始相機內在和外在的矩陣和3D點座標作爲輸入。但是,我沒有這些信息,我也不知道如何產生最初的猜測。
我應該怎麼做,以生成初始相機內在和外在矩陣和3d點座標?
非常感謝!
內在和外在的矩陣和三維點座標我想用多RGB照相機來重建三維場景。輸入數據沒有相機校準信息,所以我想使用束調整算法(Ceres-solver)來估計校準信息。初始相機捆綁調整
現在我已經獲得的成對匹配的特徵點,但我發現,在束調整算法(的Ceres解算器)的算法也需要初始相機內在和外在的矩陣和3D點座標作爲輸入。但是,我沒有這些信息,我也不知道如何產生最初的猜測。
我應該怎麼做,以生成初始相機內在和外在矩陣和3d點座標?
非常感謝!
初始參數有重要幫助的算法收斂到正確的局部極小,因此取得了良好的重建。您有不同的選項來查找相機的內在特徵:
你基本上需要以像素爲單位的焦距和透鏡畸變係數。要以像素爲單位計算的焦距可以使用下列算式:
focal_pixels = res_x *(focal_mm/ccd_width_mm)
如果在任何情況下,你不能找到內部函數的參數爲您照相機(一個或多個),則可以使用下面的近似爲初始猜測:
focal_pixels = 1.2 * res_x
不要設置爲固定的,所以焦距和失真參數將在束調節步驟被優化的參數。
在另一方面,外部參數是R的值|每臺攝像機,計算出/在重建和束調整步驟優化的Ť(旋轉 - 平移矩陣)。由於尺度在SfM情景中是未知的,所以從在隨機深度值(Z朝向場景)上投影的點生成第一個重建的攝像機對(在交叉匹配步驟中具有較高分數的攝像機)。你不需要任何extrinsics或3D點座標的初始值。