avaudioengine

    3熱度

    1回答

    我有一對帶麥克風輸入的藍牙耳機。麥克風沒有使用,但是當它是時,輸入和輸出都被強制爲8000kHz。 我的AVAudioEngine實例在8000kHz模式下連接到耳機,除非我輸入系統設置並指定我不想使用耳機輸入(每次連接耳機時都必須進行此操作)。 我注意到其他應用程序可以在預期的44100kHz下回放,沒有任何問題。我的AVAudioEngine圖中沒有輸入節點。 如何讓AVAudioEngine

    1熱度

    1回答

    至於主題主題,我想分析輸出信號的緩衝區。我已經使用這個功能(InstallTapOnBus)作爲麥克風信號,但是我不能用於輸出。任何人都知道怎麼做? let bus = 0 let node = engine.outputNode node.installTap(onBus: bus, bufferSize: AVAudioFrameCount(BUFFER_SIZE), fo

    0熱度

    1回答

    我有一個AVAudioPlayerNode(playerNode)和兩個AVAudioPCMBuffer(buffer1,buffer2)設置。 我也有一個AVAudioTime(futureTime)設置10秒。 var options: AVAudioPlayerNodeBufferOptions = [] options.insert(.interruptsAtLoop) options

    1熱度

    2回答

    我在哪裏可以得到的com.apple.coreaudio.avfaudio錯誤代碼,如信息: Terminating app due to uncaught exception 'com.apple.coreaudio.avfaudio', reason: 'error -50' 而寫PCM緩衝區AVAudioFile我總是得到一個錯誤。緩衝區來自AVAudioEngine的輸出節點。 錯誤: *

    1熱度

    1回答

    我想處理從我的iOS上使用Swift 3從麥克風讀取的字節。我目前使用AVAudioEngine。 print(inputNode.inputFormat(forBus: bus).settings) print(inputNode.inputFormat(forBus: bus).formatDescription) 這給了我下面的輸出: ["AVNumberOfChannelsKey":

    1熱度

    1回答

    什麼樣會緩衝含有當我用installTap(onBus使用多聲道音頻? 如果通道計數> 1個,那麼它將包含左麥克風?或它將包含的樣本由左麥克風和右麥克風? 當我用iphone模擬器然後進行格式化= pcmFormatFloat32,信道計數= 2,採樣率= 44100.0,不是隔行 我使用此代碼 let bus = 0 inputNode.installTap(onBus: bus, buffe

    3熱度

    1回答

    我想用AVAudioEngine製作一個5段音頻均衡器(60Hz,230Hz,910Hz,4kHz,14kHz)。我希望通過垂直滑塊使用戶輸入每個頻段的增益,並相應地調整正在播放的音頻。我嘗試使用AVAudioUnitEQ來做到這一點,但播放音頻時我聽到沒有什麼區別。我試圖在值中硬編碼來指定每個頻率的增益,但它仍然不起作用。這裏是我的代碼: var audioEngine: AVAudioEngi

    2熱度

    1回答

    我正在嘗試構建一個具有語音按鈕的小部件。當我按下它時,它應該將發出的語音轉換爲文本。 但是,當我嘗試錄製語音時,AVAudioEngine無法啓動。是否因爲AVAudioEngine在Today Extension中不被允許?

    5熱度

    1回答

    此方法處理來自AVAudioEngine的輸入節點上installTap的回調。我已經證實我得到單聲道float32/48000hz緩衝區數據,並且我想將它轉換爲單聲道int16/16000hz。 var converter: AVAudioConverter? = nil var convertBuffer: AVAudioPCMBuffer? = nil let targetFormat

    -1熱度

    1回答

    我無法找到任何指示如何在AVAudioEngine中創建Chorus EFX。 我可以看到AvAudioUnitReverb等,但我找不到任何指示 ho來創建合唱。