我有構建iOS應用程序的經驗,但沒有視頻經驗。我想要構建一個將實時視頻流傳輸到服務器的iPhone應用程序。一旦在服務器上,我將實時向消費者提供該視頻。捕獲,編碼,然後將視頻流從iPhone傳輸到服務器
我讀過不少材料。如果以下內容是正確的,是否有人能告訴我並填寫我的空白。
- 要在iPhone上錄製視頻,我應該使用AVFoundation類。使用AVCaptureSession時,代理方法captureOutput:didOutputSampleBuffer :: fromConnection I可以訪問每個視頻幀。現在我需要對視頻幀進行編碼了
- 我知道基礎類僅通過AVAssetWriter提供H264編碼,而不是通過輕鬆支持流式傳輸到Web服務器的類。因此,我將視頻寫入文件。
- 我讀過的其他文章說,他們可以使用兩個AssetWritters寫10個第二個塊,然後NSStream將這10個第二個塊寫入服務器。有人可以解釋如何編碼使用兩個AVAssetWriters一起工作來實現這一點。如果任何人有代碼,他們可以請分享。
你可以請你分享你最終使用的? –