2013-05-12 66 views
1

我是webRTC的新成員。據我所知,WebRTC用於實時通信。在規範中,似乎Stream只能通過設備outout(使用GetUserMedia for microphone,camera或chrome tab capture api)創建。但在我的應用程序中,我獲得了實時Uint8DVideo(例如H264)數據。我可以將此uint8Data轉換爲MediaStream嗎?通過webRTC播放本地數組數據數據

+0

認爲如此https://code.google.com/p/libjingle/source/browse/trunk/talk/media/webrtc/webrtcvideoframe.cc?r=292&spec=svn292 – 2013-05-12 09:53:09

回答

1

我假設你不使用getUserMedia,但有些任意的來源。 讓這個視頻「緩衝區」顯示是棘手的,在每個瀏覽器中都是不可能的(只有Chrome和Firefox)。你不需要WebRTC來做到這一點,但有一種叫Media Source API AKA MSE(E for extensions)。

該API對接受的字節流比較挑剔,並且不會獲得任何「視頻數據」。對於H264,它只會除了分段的MP4。更多關於那here的信息。

+0

嗨Whadar,媒體源API有很多限制像第一幀應該是我在媒體片段中的幀。對於這個應用程序必須等到下一個幀,然後才能用於流數據播放。這種方法不能用於實時數據。第二個限制這個API緩衝區數據在內部直到它獲得足夠的數據播放(就像在chrome中的幀號大於5,然後chrome開始播放) – user894554 2013-05-13 01:23:06