2017-04-22 208 views
1

我需要在Ubuntu 16.04機器上創建虛擬網絡攝像頭和虛擬麥克風,以通過我的Web瀏覽器使用WebRTC在Web應用程序中使用。創建虛擬麥克風Ubuntu 16.04並從RTSP IP攝像頭流入音頻

我需要從IP攝像頭(RTSP流)向這兩個虛擬設備提供視頻和音頻。 直接在VLC中播放RTSP流可以很好地處理視頻和音頻。

爲此,我創建了一個帶有video4linux2的/ dev/video1。 我可以將IP攝像頭送到/ dev/video1。

的ffmpeg -i的rtsp:// IP_ADDRESS:554 /流/渠道/ 101/-f用v412 的/ dev /視頻1

如果我看在VLC播放器,我可以選擇的/ dev/video1作爲視頻設備,但我只有「hw:0,0」作爲音頻設備,這是我的內置麥克風。

如何正確地將這種RTSP流饋送到虛擬攝像頭和虛擬麥克風?

回答

1

您需要某種環迴音頻驅動程序。如果您想在Alsa級別執行此操作,則可能會丟失snd-aloop模塊。

如果您的預期目的地支持Pulseaudio,您可以添加一個空接收器並使用其監聽源來記錄它。

pactl load-module module-null-sink sink_name=video1 

監視器源被命名爲video1.source

https://wiki.archlinux.org/index.php/PulseAudio/Examples

然後,你需要從FFmpeg的添加額外的輸出。這可能很簡單,只需在-f pulse "video1"之後添加一些內容即可。