audio-video-sync

    1熱度

    1回答

    我有一個顯示爲/dev/video1的電視調諧卡。我正試圖將一些舊的VHS錄像帶數字化。電視調諧器不做音頻,我有一條線連接到我的麥克風。 這是我用來捕捉視頻&音頻並將其保存到文件的gstreamer管道。我使用的是運動jpeg,因爲我不希望它丟幀和丟失內容。稍後我會對它進行更好的編碼。 gst-launch-0.10 v4l2src device=/dev/video1 ! \ queu

    2熱度

    1回答

    下載並使用Xuggler後,我的初始印象非常好;它支持大量的編解碼器,它相對來說很容易上手,而入門教程視頻非常清晰地解釋了所有必要的概念。 但是,在玩了幾天之後,我真的把我的頭髮撕掉,讓所有的音頻和視頻很好地同步。在正常播放的時候沒問題,但是當添加暫停時,尋找和計算偶爾的6秒停頓時,我的外部硬盤驅動器變成了一個絕對的噩夢。 我已經部分實現了一些東西,但它並不是完美的 - 你可以尋找幾次,但過了一段

    2熱度

    1回答

    當我嘗試從IPad 2.0/1.0中的Safari瀏覽器傳輸由第三方多路複用器(Mainconcept/Elecard)生成的TS塊時,我總是在一段時間內看到音頻視頻同步問題。 但在Windows PC或Macbook中,相同的剪輯在標準媒體播放器中播放良好。 我還觀察到,當我試圖在MAcbook中流媒體文件分段器工具生成的TS塊時,iPad中沒有問題。 什麼是iPad預計從第三方多路複用器?例如

    2熱度

    1回答

    我正在使用Ffmpeg來解碼和播放視頻文件。我目前播放的視頻和播放的音頻速度與CPU可以解碼和顯示的速度一樣快。問題是我想用系統時鐘同步播放視頻和音頻。 我已經搜索了一些幫助,但除了dranger的tutorial 05之外找不到其他任何東西,但我並不真正瞭解他在做什麼,因爲我的程序的寫法與他的方式不同。 我使用的是mjpeg文件,因此每次解碼幀時都會檢索pts,我已將時間基數乘以時間基數,因爲d

    3熱度

    1回答

    我正在開發使用gst和​​python進行視頻聊天。 其中,我想查看最終用戶的網絡攝像頭,並且還想在一個gtk窗口中查看我自己的攝像頭(類似於同理視頻聊天)。爲此,我使用了gst.Tee對象並創建了2個隊列,其中一個將結果鏈接到本地​​gtk窗口,第二個隊列將同一視頻流鏈接到會話對象。 gst.Tee已經完成了任務,但也降低了視頻聊天的速度,並且視頻來自音頻。 (我用不同的流進行音頻會話) 這裏,

    3熱度

    1回答

    我有非常奇怪的視頻文件。 它有音頻/視頻同步問題。視頻快,音頻好。 視頻具有奇怪的幀速率:26.07 fps。 如何使用ffmpeg修復視頻流。在視頻開始時,同步是確定的,但在視頻流結束時,剩下大約5分鐘的音頻,並且正在播放黑屏。 這是ffmpeg的輸出-i video.avi ffmpeg version git-2011-10-15-1d0afec, Copyright (c) 2000-20

    7熱度

    1回答

    我使用gstreamer通過RTP流將mp4(mpeg-4)文件從一臺設備流式傳輸到另一臺設備。基本上我把mp4文件分解成它的音頻和視頻文件,然後將它們全部發送到其它設備,並在其中進行流式傳輸。現在,我想將mp4文件保存到其他設備的磁盤中,但是我的問題是我能夠單獨保存音頻和視頻文件,並且無法單獨播放。 我很困惑如何結合音頻和視頻rtp流,形成我的mp4文件並保存到其他設備的文件。 下面是命令行代碼

    0熱度

    1回答

    我通過網絡接收來自機器的IEEE 1722標準以太網數據包。這些數據包包含'timestamp'字段,接收器可以使用該字段來決定何時使用ALSA子系統播放音頻數據。 我想知道我可以使用哪個API或參數(在ALSA中)來滿足此要求。我正在使用Fedora。

    3熱度

    2回答

    這裏是設置: 我有一個視頻文件,並以相同期限的音頻文件。視頻文件通過[pix_film]播放,音頻文件通過[readsf~]播放,兩者都會因用戶交互觸發的幾種效果而失真。 如何保持視頻和音頻同步?

    2熱度

    1回答

    我想連接隨機格式的不同視頻文件。首先我將它們轉換爲flv,將每個視頻的幀率調整到所涉及視頻的最低幀率。下一步是對它們進行解碼並刪除標題(但不是序列中第一個視頻的標題,然後我將它們與cat連接起來,最後我編碼resultsequence。 但是,視頻和音頻軌道正在越來越多了,從序列部分序列部分同步。 會很高興的任何想法。