audiounit

    0熱度

    2回答

    我正在合成一個合成器,合併EQ部分,並想知道是否有人對Audiounits鏈接在一起的訂單的建議。 目前我的圖表看起來是這樣的: AUSampler -> Lowpass Unit -> Highpass Unit -> Parametric Unit -> Output 這是他們連接在一起的適當方法還是有更好的辦法? 或者一個更好的問題是:一個合適的桌面級多頻段eq不會​​將每個頻段鏈接在一

    3熱度

    1回答

    當用戶更改參數或預設時,如何/何時實際更新儀器? 有一個在AUInstrumentBase

    0熱度

    1回答

    我想脫機彈出一個MIDI文件,並且正如PlaySequence示例所做的那樣,我正試圖理解它。 我一直在不停地閱讀,你需要一個回調函數在CoreAudio中做任何事情,但我在這個項目中看不到任何東西。 我粘貼包含AudioUnitRender的循環,感謝您的幫助! CAStreamBasicDescription clientFormat = CAStreamBasicDescription();

    3熱度

    2回答

    我已經搜索並已經完成了可以播放MIDI音符的OS X應用程序,但是當我在iOS中嘗試時,沒有任何事情發生。這裏是核心代碼: AUGraph graph; AudioUnit synthUnit; AUNode synthNode, outNode; NewAUGraph(&graph); AudioComponentDescription cd; cd.componentManufa

    1熱度

    1回答

    我想在iOS應用中實現簡單的音頻壓縮器/限制器。我正在使用核心音頻和音頻單元來做到這一點,並且我嘗試了Peak Limiter音頻單元。你會推薦什麼樣的最佳結果?我希望主要使用壓縮器/限制器來錄製聲音,以將峯值壓縮到特定值以上。

    4熱度

    2回答

    我的問題很自我解釋。對不起,如果它看起來太愚蠢。 我正在寫一個iOS VoIP撥號程序並檢查了一些開源代碼(iOS音頻通話應用程序)。幾乎所有的人都使用循環緩衝器來存儲已錄製和已接收的PCM音頻數據。所以我想知道爲什麼我們需要在這種情況下使用循環緩衝區。使用這種音頻緩衝區的確切原因是什麼? 在此先感謝。

    1熱度

    1回答

    我目前正在開發一個VoIP應用程序,並且我正在使用的一個庫要求我在輸入回調中發送幀。要求是我必須發送一個樣本計數,它被定義爲一個幀中的樣本數量。這個回調將在麥克風接收新樣本時被調用。 有效數字是(採樣率)*(音頻長度)/ 1000。音頻長度可以是2.5,5,10,20,40或60毫秒。 在使用kAudioUnitProperty_MaximumFramesPerSlice將我的inNumberFr

    0熱度

    1回答

    我目前正在製作音樂應用程序,您可以添加新樂器作爲音樂序列的曲目。 這裏是我有當一個新的軌道已添加: MusicPlayerStop(_musicPlayer); status = MusicSequenceNewTrack(sequence, &tracks[tracksCount]); timeDiff = 32.f/_tempo; [self setLoopDuration:cur

    3熱度

    1回答

    我一直在研究iOS的音頻單元託管指南,然後嘗試使用提供的示例項目。但是,所有這些項目都使用了棄用的AudioUnitSampleType(這似乎是一個簡單的typedef)。這可能是一個新手問題,但我怎樣才能改變它呢? 據我的理解,我應該根據目標iOS版本(當然,我想盡可能多地定位)用不同類型(SInt16或Float)替換它。所以我應該只寫一堆#ifndef或者我錯過了什麼?

    1熱度

    2回答

    我必須使用採樣的樂器爲許多孤立的音符,和絃和旋律生成音頻。以編程方式最簡單的方法是什麼(我不想在DAW中手動輸入註釋然後彈回音頻)?我在GitHub上發現了這個Python Audio Unit Host,但它沒有被主動維護,並且沒有在Yosemite下編譯。在Objective-C中創建一個簡單的音頻單元主機似乎是一項艱鉅的任務。更簡單的選擇