我正在研究使用一系列kinect相機的多視圖遠程呈現項目。
爲了改善我們想要提取前景的視覺質量,例如,站在中間的人使用彩色圖像,彩色圖像而不是深度圖像,因爲我們想要使用更可靠的彩色圖像來修復深度圖像中的一些人爲因素。是否有可能在背景的大部分是大屏幕(播放視頻)的視頻中提取前景?
現在的問題是前景物體(通常是1-2人)站在一個巨大的屏幕前方,顯示遠程呈現系統的另一方(它也一直在移動),並且該屏幕對於某些人來說是可見的的動物。是否仍然有可能爲這些運動物提取前景,如果是這樣,你能指出我正確的方向嗎?
對於現有系統的一些詳細信息:
我們已經擁有了系統運行的合併所有kinects的深度圖,但只得到我們好遠。 kinect深度傳感器存在很多問題,例如干擾和傳感器距離。 同樣的顏色和深度傳感器有輕微的偏移,所以當你映射上的網格的顏色(如質地)使用深度數據你有時地圖上的人在地板重建。
所有這些問題降低了深度數據的總體質量,而不是顏色數據,因此人們可以觀看彩色圖像輪廓的「真正的」一個和深度一個爲「破」之一。但是網格是使用深度數據構建的。所以改善深度數據等同於提高系統的質量。
現在,如果您有剪影,您可以嘗試刪除/修改輪廓之外的不正確的深度值和/或在
感謝您提供的每一個提示。
感謝您的回答。 我修改了我的問題以包含一些附加信息。 我認爲有辦法同步kinetics,但不是沒有劇烈framerate下降,所以這是不可行的。 好吧,理論上我知道顯示器顯示的是什麼,但是它是多用戶立體聲,所以互相頂部的4個圖像和遠程呈現的雙方不會同步,因此不能很好地工作。 – 2013-03-09 16:42:50
感謝您的更新!這是一個有趣而棘手的問題。我更新了我的答案 - 看看它現在是否更有幫助。 – DCS 2013-03-10 21:28:19
@PiTabread:在這個問題上的任何進展? – DCS 2013-03-15 08:43:43