4

我需要通過網絡從Kinect相機發送視頻。我從以下兩個Kinect的來源捕獲視頻:從Kinect相機壓縮RGB-D視頻

  1. 2D彩色視頻(RGB )。每像素32位。 640x480 30fps。
  2. 深度數據(D)。每個像素16位,代表距離最近物體的距離,單位爲毫米。 640x480 30fps。

這相當於帶寬至少大約53 MB/s。 這就是爲什麼我需要在原點對兩個視頻源進行編碼(壓縮),然後在目標處進行解碼。 RGB-D數據將由目標處的目標跟蹤算法處理。

到目前爲止,我發現許多論文討論的算法來實現這一任務一樣,比如這一個: RGB and depth intra-frame Cross-Compression for low bandwidth 3D video

的問題是,在這樣的論文描述的算法沒有公開訪問實現。我知道,我可以自己實現它們,但是他們使用了許多其他複雜的圖像處理算法,但我沒有足夠的知識(邊緣檢測,輪廓表徵,...)。

事實上,我也發現基於使用一個離散值濾波器的一些C++庫,δ-(避免發送冗餘數據),和LZ4壓縮: http://thebytekitchen.com/2014/03/24/data-compression-for-the-kinect/

我的問題是:是有較簡單的和/或者更有效的方式來壓縮來自Kinect源的RGB-D數據?

PS:我使用C++進行編碼。

回答