openni

    1熱度

    1回答

    我有一個來自Orbecc的Astra Pro 3D傳感器,它使用OpenNI進行抓取。 但預編譯格式http://pointclouds.org/的PCL使用OpenNI而不是OpenNI2。所以當我嘗試運行任何示例程序時,出現「無設備連接」錯誤。 經過一番研究,我發現我需要爲OpenNI2構建PCL。由於我對PCL很新,所以我不知道該怎麼做。 任何人都可以請幫助我用OpenNI2構建PCL。

    1熱度

    2回答

    我一直在我的項目中使用OpenNI + PrimeSense + NiTE和OpenCV來根據它們的距離來分割對象。不過,我打算將它部署在NVIDIA Jetson TX1板上,並且無法通過OpenCV編譯OpenNI + PrimeSense + NiTE。 我結束了libfreenect。但是libfreenect提供的深度圖非常非常錯誤。我會分享一些例子。 這裏是OpenNI的工作深度圖:

    0熱度

    1回答

    我的Windows 10筆記本電腦有一個Unity項目,它使用集成攝像頭作爲ARToolKit包。 統一督察默認包設置: ,我需要改用PrimeSense的哪些設置(Kinect的狀,OpenNI2結構傳感器)通過USB連接的攝像頭?對於戴爾靈15R 設備管理器:

    2熱度

    1回答

    最近我遇到了一個問題,可以這樣描述:只要程序需要運行時,就需要root權限。 我的工具鏈的設置是:ubuntu14 + ROS靛藍+ opencv_2.4.11 + openni_1.5.7.10 + primesense_5.1.2.1 + kinect_v1 的現象如下: 當我試圖通過openni NiViewer檢查出Kinect的輸出,如果我沒有「須藤」運行NiViewer,我會得到以下信

    6熱度

    1回答

    我剛剛在OSX 10.11.5上設置了libfreenect2,我可以成功運行顯示RGB /紅外/深度流的Protonect演示,但我還想使用OpenNI/NITE進行骨架跟蹤。 我已經按照在OpenNI回購的README文件中的指令,但是當我試圖運行NiViewer我得到這個: NiViewer openDevice failed: DeviceOpen using default:

    1熱度

    1回答

    我正在嘗試使用我的自定義.klg文件運行SLAM算法(ElasticFusion)。 我嘗試了以下2種方式: 第一種方式正要從不同深度和RGB圖片(.png)文件及其時間戳信息手工打造.klg文件。我在這個Sequence 'freiburg1_desk'數據集上嘗試了轉換腳本,然後運行ElasticFusion。我得到了很好的結果和點雲。但是,當我嘗試使用相同的步驟在自己的設備上記錄環境時,我沒

    0熱度

    1回答

    我在我的odroid-XU4上安裝了Lubuntu 14.04。我安裝了ROS Indigo以及openni_camera和openni_launch。他們似乎正常工作,因爲我能夠訂閱其發表的一些話題。現在,我想使用ROS軟件包顯示來自kinect的RGB和深度圖像。我應該如何繼續下去?

    0熱度

    1回答

    我會得到一些關於人類20個骨架的3d位置(在固定的世界座標系統中)的數據流。 我想使用骨架數據來驅動一個像demo video這樣的固定骨骼的人體模型。 在Kinect SDK v1.8中,我可以通過NUI_SKELETON_BONE_ORIENTATION.hierarchicalRotation獲得每個骨架的局部旋轉。 我想實現這樣的功能,但Kinect的SDK不是開源的。 我發現函數xnGe

    0熱度

    1回答

    我正在開發一個應用程序,它將在Windows上與OpenNI 2一起使用Kinect v2,但需要32位,因爲它也使用不同的32位庫。 我已經安裝了32位版本的OpenNI 2,但找不到32位版本的Kinect 2 SDK。 您可以針對Kinect 2庫構建一個32位應用程序嗎?

    2熱度

    1回答

    我正在使用python3和openni2。 當我打開與相機的通信(在這種情況下,我使用的是Orbbec Astra)時,是否可以讀取相機的序列號? 我這是怎麼打開通訊: dev = openni2.Device.open_any() depth_stream = dev.create_depth_stream() depth_stream.start() depth_