vp8

    1熱度

    1回答

    我需要檢測RTP包中的VP8關鍵幀。我知道如何去除RTP頭並獲得有效載荷。 它是否有特定的簽名/標題?

    0熱度

    2回答

    我開發了企業iOS應用程序。在我的應用程序中,我將Quickblox集成到視頻通話中。 據我所知,quickblox ios sdk支持視頻編解碼器VP8,H264。 在android-ios(iOS-android)之間進行視頻通話時,視頻質量很好,但不是很好。 所以我打算爲我的視頻通話應用添加VP9。 有沒有解決方案或例子?

    0熱度

    1回答

    我一直在使用GDI + & CxImage庫用於保存我從桌面捕獲的圖像,並考慮轉移到谷歌的LibWebp,因爲它承諾高質量圖像,壓縮比JPEG或PNG更好。 我使用DirectX或GDI在windows上捕獲桌面,對它們進行編碼和保存,或通過網絡傳輸並在另一端進行解碼。除了用文本捕獲的圖像失真之外,每件事看起來都不錯,但對於含有大量文本內容的網頁而言,這種情況也不會發生。 無論何時背景顏色改變(被

    0熱度

    1回答

    我試圖寫在C的的WebRTC應用程序的解碼器,我收到一個RTP流,我分析每一個數據包,重新排序,並把有效載荷在AVPacket,這裏描述( FFmpeg decode raw buffer with avcodec_decode_video2)。 重新排序部分沒有在這個鏈接描述,但我很確定這部分是確定的。 問題是,我不知道如何給解碼器有關分辨率,pix_fmt等信息。我是否需要創建一個AVstre

    0熱度

    1回答

    您好,我目前正在構建一個實時流媒體解決方案,通過RTSP採用H.264編碼視頻,將其轉換爲WebRTC,然後將其發送到HTML5瀏覽器。 H.264支持WebRTC,幾乎所有的瀏覽器似乎都支持H.264解碼,所以我認爲不需要任何轉碼。然而,我試圖做的許多實現似乎涉及將H.264轉碼爲VP8,我想知道爲什麼這是必要的。這樣做的好處是什麼?是否有任何統計數據可以看出究竟由於此代碼轉換會增加多少延遲?

    1熱度

    1回答

    我試圖弄清楚如何將webRTC上的視頻編解碼器從vp8更改爲vp9,並且在任何地方都找不到合適的答案。願有人帶領/告訴我它是如何完成的?謝謝

    0熱度

    1回答

    我正在使用基於標準ffmpeg轉碼器示例的ffmpeg庫構建程序。我的目標是構建將任何合適的視頻(即ffmpeg可以讀取的)編碼成WEBM格式的視頻代碼轉換器。問題是如何將選項傳遞給VP8編碼器來控制輸出視頻質量和其他參數?我的意思是通過C++代碼傳遞這些選項。

    0熱度

    1回答

    我使用WebRTC與kurento媒體服務器,據我瞭解,WebRTC支持VP8視頻流和使用opus音頻流,所以我的問題是,如果我想壓縮包含音頻和視頻的流,所以我是否需要同時使用(VP8和Opus)?

    0熱度

    1回答

    我已經使用Wireshark將視頻呼叫保存到.pcap文件,並且我想從RTP數據包中獲取視頻。 RTP包有效載荷類型是vp8,我可以通過使用C++中的libpcap庫找到vp8 RTP包。然後我將所有RTP vp8數據包的內容保存到一個文件中。但我無法通過使用ffmpeg將此原始vp8數據轉換爲.mp4。轉換過程中ffmpeg給出錯誤。 的ffmpeg轉換錯誤:無效的數據發現處理輸入 是怎麼得到V

    0熱度

    1回答

    我正嘗試將谷歌眼鏡的音頻和視頻流傳輸到瀏覽器。布魯塞爾只需接收視頻和音頻。 我編譯了谷歌源代碼,按照這裏的說明http://www.webrtc.org/native-code/android。 到目前爲止,它的工作原理。但是,我對視頻有問題。它以灰度顯示,我不確定我應該對源代碼進行哪些更改以解決此問題。 這是問題的一個截圖: 我發現stackoverflow.com兩個相關的問題,但我沒有得到解