2016-10-28 112 views
0

我正在使用重放套件來記錄屏幕,當我正在使用webRTC SDK進行呼叫時,我想要實現的是使用音頻記錄或捕獲屏幕。我使用了github的appRTC。如何在appRTC iOS中本地錄製和保存RTCVideoTrack?

我想我可以通過AVCaptureSession來實現這個功能!因爲我想排除replayKit 沒有相關的代碼提供。

回答

1

這是具有挑戰性的,但它可以做到。我無法就此提供詳細的答案,因爲它對我們的應用程序來說非常核心,我們正在構建的東西以及它的代碼很多,但希望它有助於瞭解它可以完成的工作。

一種你幾個指針:

  1. 看看http://cocoadocs.org/docsets/chrome50_libjingle_peerconnection/1.0.50/Classes/RTCAVFoundationVideoSource.html這將讓你訪問的WebRTC使用AVCaptureSession,您可以AVAssetWriter成功掛接到這一點。
  2. 查看RTCVideoRenderer協議參考。 http://cocoadocs.org/docsets/Quickblox-WebRTC/2.2/Protocols/RTCVideoRenderer.html它將使您能夠在WebRTC呈現它們並在發送它們回傳給WebRTC之前處理它們。您需要將接收到的RTCI420Frame轉換爲CVPixelBufferRef(這是一個YUV420到RGB轉換)。
+0

Tim Bull - 謝謝你的迴應,我會做的就是研究它,嘗試實現它,並返回到此線程的結果。 謝謝 –

+0

還有一件事,我會得到的框架是本地飼料或遠程飼料? –

+0

在我們的案例中,我們抓取本地供稿,但如果您願意,您也可以攔截遠程供稿。 –