--- title: AudioBuffer slug: Web/API/AudioBuffer translation_of: Web/API/AudioBuffer ---
{{APIRef("Web Audio API")}}
AudioBuffer
インターフェースはメモリ上の短い音声を表すもので、それは{{ domxref("AudioContext.decodeAudioData()") }}メソッドを使ってオーディオファイルから、または{{ domxref("AudioContext.createBuffer()") }}を使って生のデータから生成されます。AudioBufferに入れた後は、その音声は{{ domxref("AudioBufferSourceNode") }}に渡せば再生できます。
これらのオブジェクトは短い、一般的には45秒未満の、断片的な音声を保持するために設計されています。それよりも長い音声は、{{domxref("MediaElementAudioSourceNode")}}のオブジェクトが適しています。バッファには次の形式でデータが書き込まれます: ノンインターリーブ IEEE754 32bit リニア PCMで、-1から+1の範囲で正規化されています。つまり、32bit 浮動小数点バッファで、それぞれのサンプルは-1.0から1.0の間です。AudioBufferに複数のチャンネルがある場合は、それぞれ分かれたバッファに格納されます。
次の簡単な例では、AudioBufferの生成し、バッファにランダムなホワイトノイズを書き込む方法を示しています。audio-buffer demo リポジトリには完全なソースコードと、すぐに実行できるバージョンがあります。
// ステレオ var channels = 2; // AudioContextのサンプルレートで2秒間の空のステレオバッファを生成する var frameCount = audioCtx.sampleRate * 2.0; var myArrayBuffer = audioCtx.createBuffer(channels, frameCount, audioCtx.sampleRate); button.onclick = function() { // バッファにホワイトノイズを書き込む; // 単なる-1.0から1.0の間の乱数の値である for (var channel = 0; channel < channels; channel++) { // 実際のデータの配列を得る var nowBuffering = myArrayBuffer.getChannelData(channel); for (var i = 0; i < frameCount; i++) { // Math.random()は[0; 1.0]である // 音声は[-1.0; 1.0]である必要がある nowBuffering[i] = Math.random() * 2 - 1; } } // AudioBufferSourceNodeを得る // これはAudioBufferを再生するときに使うAudioNodeである var source = audioCtx.createBufferSource(); // AudioBufferSourceNodeにバッファを設定する source.buffer = myArrayBuffer; // AudioBufferSourceNodeを出力先に接続すると音声が聞こえるようになる source.connect(audioCtx.destination); // 音源の再生を始める source.start(); }
Specification | Status | Comment |
---|---|---|
{{SpecName('Web Audio API', '#the-audiobuffer-interface', 'AudioBuffer')}} | {{Spec2('Web Audio API')}} | Initial definition. |
{{Compat("api.AudioBuffer")}}