libfreenect2

    2熱度

    1回答

    我想從我的MS Kinect V2生成現實世界座標。 我設法拼湊出pyqt + opengl散點圖,並使用pylibfreenect2顯示來自Kinect的深度數據。 我立即注意到深度數據與點雲數據不一樣。請注意我的房間的天花板是非常扭曲的(應該是什麼平頂開始像曲棍球棒圖)繪製深度幀 一些閱讀後,通過源文件挖我管理的 結果找到一個看起來非常有前途的功能。 getPointXYZ - 建築中的點雲中

    1熱度

    2回答

    我一直在我的項目中使用OpenNI + PrimeSense + NiTE和OpenCV來根據它們的距離來分割對象。不過,我打算將它部署在NVIDIA Jetson TX1板上,並且無法通過OpenCV編譯OpenNI + PrimeSense + NiTE。 我結束了libfreenect。但是libfreenect提供的深度圖非常非常錯誤。我會分享一些例子。 這裏是OpenNI的工作深度圖:

    0熱度

    1回答

    我在Ubuntu 16.04上安裝了libfreenect。然後,當我在Qt中添加它的庫時,發生了以下錯誤。 我嘗試添加的libusb-1.0。我在終端輸入的那樣: pkg配置的libusb-1.0 --libs --cflags -I的/ usr /包括/ libusb的-1.0 -lusb-1.0 的.pro文件: QT + =芯 QT - = GUI CONFIG + = C++ 11 TA

    6熱度

    1回答

    我剛剛在OSX 10.11.5上設置了libfreenect2,我可以成功運行顯示RGB /紅外/深度流的Protonect演示,但我還想使用OpenNI/NITE進行骨架跟蹤。 我已經按照在OpenNI回購的README文件中的指令,但是當我試圖運行NiViewer我得到這個: NiViewer openDevice failed: DeviceOpen using default:

    0熱度

    1回答

    我一直在試圖讓libfreenect2庫啓動並運行在我的Windows 10機器上,並且遇到了一個我無法過去的問題。我已經建立了圖書館,這是一些例子。我遇到的問題是當我去運行「Protonect」示例代碼時。我得到的輸出列示如下: $ ./install/bin/Protonect.exe Version: 0.2.0 Environment variables: LOGFILE=<proto

    0熱度

    1回答

    我目前正在使用Kinect v2。我可以用PC做各種各樣的東西。接下來我要做的是,爲了在PC上獲得我想要的數據,並用這些數據控制樹莓派(例如,當我將頭向右傾斜時,我將用電機移動Pi)。我已經整理了電機和一切,但我不知道如何使用PC上的跟蹤數據來控制Pi。 我希望這個問題很有意義,我對Pi和Kinect都是非常新的。 感謝您的幫助!