我已經能夠在其中找到確切地描述這個演示幻燈片:here
正常使用的API是處理實時音頻。相反,我們可以預先處理的聲音通過整個系統,並得到的結果是:
唯一的問題是,我的音頻API的理解過於簡單,看看有什麼「絕招」是從代碼示例:
var sampleRate = 44100.0;
var length = 20; // seconds
var ctx = new webkitAudioContext(2, sampleRate * length, sampleRate);
ctx.oncomplete = function(e) {
var resultAudioBuffer = e.renderedBuffer;
...
};
function convolveAudio(audioBuffer, audioBuffer2) {
var source = ctx.createBufferSource();
var convolver = ctx.createConvolver();
source.buffer = audioBuffer;
convolver.buffer = audioBuffer2;
// source -> convolver -> destination.
source.connect(convolver);
convolver.connect(ctx.destination);
source.noteOn(0);
ctx.startRendering();
}
但我認爲它會更好,至少分享這不是離開它完全,即使這不正是我希望能給出答案。
三年來你學到了多少東西,現在在這個答案上得到了讚賞,現在看起來像是孩子的遊戲:)。 – 2016-07-06 08:56:23