--- title: AudioContext.createBuffer() slug: Web/API/AudioContext/createBuffer tags: - 创建音频片段 - 接口 - 方法 - 音频环境 translation_of: Web/API/BaseAudioContext/createBuffer ---
音频环境{{ domxref("AudioContext") }} 接口的 createBuffer() 方法用于新建一个空
白的 {{ domxref("AudioBuffer") }} 对象,以便用于填充数据,通过 {{ domxref("AudioBufferSourceNode") }} 播放。
更多关于音频片段(Audio Buffer)的细节,请参考{{ domxref("AudioBuffer") }}页面。
注意: createBuffer()
曾被用于接收压缩后的音频数据,并返回被解码的音频,但是这项功能现在已经被移除,因为所有的解码工作应当在主线程中被完成,createBuffer()
阻塞了其他代码的执行。异步方法 decodeAudioData()
能够完成相同的工作 —— 传入一个压缩过的音频(如MP3格式的文件),并直接返回一个可以通过 {{ domxref("AudioBufferSourceNode") }} 播放的 {{ domxref("AudioBuffer") }} 。因此播放诸如MP3等格式的压缩音频时,你应当使用 decodeAudioData() 方法。
AudioContext.createBuffer(Number numOfChannels, Number length, Number sampleRate);
注意:如果想深入了解 audio buffers 是如何工作的、这些参数的具体含义,请阅读这篇简短的指南: Audio buffers: frames, samples and channels(英)。
一个 {{domxref("AudioBuffer")}}。
首先,我们将从几个浅显易懂的示例入手,来解释如何使用这些参数:
var audioCtx = new AudioContext(); var buffer = audioCtx.createBuffer(2, 22050, 44100);
如果你这样调用,你将会得到一个立体声(两个声道)的音频片段(Buffer),当它在一个频率为44100赫兹(这是目前大部分声卡处理声音的频率)的音频环境({{ domxref("AudioContext") }})中播放的时候,会持续0.5秒:22050帧 / 44100赫兹 = 0.5 秒。
var audioCtx = new AudioContext(); var buffer = audioCtx.createBuffer(1, 22050, 22050);
如果你这样调用,你将会得到一个单声道的音频片段(Buffer),当它在一个频率为44100赫兹的音频环境({{ domxref("AudioContext") }})中播放的时候,将会被自动按照44100赫兹*重采样*(因此也会转化为44100赫兹的片段),并持续1秒:44100帧 / 44100赫兹 = 1秒。
注意: 音频重采样与图片的缩放非常类似:比如你有一个16 x 16的图像,但是你想把它填充到一个32 x 32大小的区域,你就要对它进行缩放(重采样)。得到的结果会是一个叫低品质的(图像会模糊或者有锯齿形的边缘,这取决于缩放采用的算法),但它却是能将原图形缩放,并且缩放后的图像占用空间比相同大小的普通图像要小。重新采样的音频道理相同——你会介于一些空间,但事实上你无法产出高频率的声音(高音区)。
现在让我们来看一个更加复杂的示例,我们将创建一个时长2秒的音频片段,并用白噪声填充它,之后通过一个 音频片段源节点({{ domxref("AudioBufferSourceNode") }}) 播放。代码中的注释应该能充分解释发生了什么。你可以 在线演示 ,或者 查看源代码 。
var audioCtx = new (window.AudioContext || window.webkitAudioContext)(); var button = document.querySelector('button'); var pre = document.querySelector('pre'); var myScript = document.querySelector('script'); pre.innerHTML = myScript.innerHTML; // 立体声 var channels = 2; // 创建一个 采样率与音频环境(AudioContext)相同的 时长2秒的 音频片段。 var frameCount = audioCtx.sampleRate * 2.0; var myArrayBuffer = audioCtx.createBuffer(channels, frameCount, audioCtx.sampleRate); button.onclick = function() { // 使用白噪声填充; // 就是 -1.0 到 1.0 之间的随机数 for (var channel = 0; channel < channels; channel++) { // 这允许我们读取实际音频片段(AudioBuffer)中包含的数据 var nowBuffering = myArrayBuffer.getChannelData(channel); for (var i = 0; i < frameCount; i++) { // Math.random() is in [0; 1.0] // audio needs to be in [-1.0; 1.0] nowBuffering[i] = Math.random() * 2 - 1; } } // 获取一个 音频片段源节点(AudioBufferSourceNode)。 // 当我们想播放音频片段时,我们会用到这个源节点。 var source = audioCtx.createBufferSource(); // 把刚才生成的片段加入到 音频片段源节点(AudioBufferSourceNode)。 source.buffer = myArrayBuffer; // 把 音频片段源节点(AudioBufferSourceNode) 连接到 // 音频环境(AudioContext) 的终节点,这样我们就能听到声音了。 source.connect(audioCtx.destination); // 开始播放声源 source.start(); }
规范 | 现状 | 备注 |
---|---|---|
{{SpecName('Web Audio API', '#widl-AudioContext-createBuffer-AudioBuffer-unsigned-long-numberOfChannels-unsigned-long-length-float-sampleRate', 'createBuffer()')}} | {{Spec2('Web Audio API')}} |
Feature | Chrome | Firefox (Gecko) | Internet Explorer | Opera | Safari (WebKit) |
---|---|---|---|---|---|
Basic support | {{CompatChrome(10.0)}}{{property_prefix("webkit")}} | {{CompatGeckoDesktop(25.0)}} | {{CompatNo}} | 15.0 {{property_prefix("webkit")}} 22 |
6.0{{property_prefix("webkit")}} |
Feature | Android | Firefox Mobile (Gecko) | Firefox OS | IE Mobile | Opera Mobile | Safari Mobile | Chrome for Android |
---|---|---|---|---|---|---|---|
Basic support | {{CompatUnknown}} | 26.0 | 1.2 | {{CompatUnknown}} | {{CompatUnknown}} | {{CompatUnknown}} | 33.0 |