cmsamplebufferref

    4熱度

    2回答

    我正在使用AVFoundation來捕獲和錄製音頻。有一些問題我不太明白。 基本上我想從AVCaptureSession捕獲音頻並使用AVWriter編寫,但是我需要在從AVCaptureSession獲取的CMSampleBuffer的時間戳中進行一些轉換。我閱讀了CMSampleBuffer的文檔,我看到兩個不同的時間戳:'演示時間戳'和'輸出演示時間戳'。兩者有什麼不同? 假設我從AVCap

    0熱度

    1回答

    我正在處理圖像(在iOS上使用AVFoundation和OpenCV),我想只需顯示CMSampleBufferRef(或IplImage)的內容到屏幕。 簡單:我只是想顯示(像OpenCV中的cvShowImage())未轉換的圖像,看我不處理損壞或以某種方式變形圖像。

    0熱度

    1回答

    我正在創建一個簡單的視頻通話應用程序,其中音頻/視頻將從一個設備流到另一個設備,但問題是我不知道視頻通話的工作方式,尤其是如何使用它iOS。 到現在爲止我已經使用AVCaptureSession拍攝的視頻,並從該委託的方法 - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleB

    3熱度

    1回答

    這可能是一個愚蠢的問題,但我剛剛開始瞭解媒體格式和AVFoundation,請耐心等待。 我一直在試圖弄清楚AVCaptureVideoDataOutput的CMSampleBuffer是否可以有多個幀。然而,從文檔看來,似乎有可能,我看到的大多數示例代碼似乎都是由於CMSampleBuffer與單個框架一樣。我只是誤解了這個? 如果每個緩衝區可以有多個幀,是否有可能獲取各個幀並確定它是否是關鍵幀

    16熱度

    5回答

    我使用AVFoundation並獲得來自AVCaptureVideoDataOutput樣品緩衝液,我可以通過直接將其寫入videoWriter: - (void)writeBufferFrame:(CMSampleBufferRef)sampleBuffer { CMTime lastSampleTime = CMSampleBufferGetPresentationTimeStamp

    3熱度

    2回答

    我想使用AVFoundation框架從AVCaptureStillImageOutput快速捕獲一系列靜止圖像,就像某些相機的突發模式。我想使用完成處理程序, [stillImageOutput captureStillImageAsynchronouslyFromConnection:videoConnection completionHandler: ^(CMS

    11熱度

    1回答

    如何將CMSampleBufferRef轉換爲NSData? 我已成功地通過關注this thread的Erik Aigner的回答得到了MPMediaItem的數據,但數據的類型爲CMSampleBufferRef。 我知道CMSampleBufferRef是一個結構體,在iOS Dev Library的CMSampleBuffer Reference中定義,但我不認爲我完全理解它是什麼。 CM

    4熱度

    1回答

    我試圖裁剪和縮放CMSampleBufferRef根據用戶的輸入,在ratio,下面的代碼需要CMSampleBufferRef,將其轉換成CVImageBufferRef和使用CVPixelBuffer裁剪基於其字節的內部圖像。這一過程的目標是有一個裁剪和縮放CVPixelBufferRef寫信給視頻 - (CVPixelBufferRef)modifyImage:(CMSampleBuffer

    1熱度

    1回答

    我無法使用iPhone上的avassetwriter將音頻錄製到視頻中。我可以在手機上錄製來自攝像頭的視頻沒有問題,但是當我嘗試添加音頻時,我什麼都沒有收到,而且相冊應用中的視頻顯示的內容也顯示出了一些真正的問題,4秒的視頻將會顯示15:54:01或類似的東西,即使視頻較短,編號後的每個視頻都會增加。我一直在試圖追尋其他問題,但沒有運氣。 繼承人設置了AVAssetWriter如何IM video

    10熱度

    1回答

    我有一個程序實時查看相機輸入並獲取中間像素的顏色值。我用captureOutput:方法來從一個AVCaptureSession輸出(恰好被讀作CVPixelBuffer),然後我搶用下面的代碼的像素的RGB值搶CMSampleBuffer: // Get a CMSampleBuffer's Core Video image buffer for the media data CVImageB