--- title: AudioNode slug: Web/API/AudioNode translation_of: Web/API/AudioNode ---
{{APIRef()}}
The AudioNode interface is a generic interface for representing an audio processing module like an audio source (e.g. an HTML {{HTMLElement("audio")}} or {{HTMLElement("video")}} element), audio destination, intermediate processing module (e.g. a filter like {{domxref("BiquadFilterNode")}} or {{domxref("ConvolverNode")}}), or volume control (like {{domxref("GainNode")}}).
AudioNodeインターフェースは、オーディオソース(例:<audio>、<video>, OscillatorNode、音声出力、中間処理モジュール(BiquadFilterNodeやConvolverNodeのようなフィルター)、GainNodeのような音量コントロール)などの音声処理モジュールを表現するための、一般的なインターフェースです。
An AudioNode
has inputs and outputs, each with a given amount of channels. An AudioNode
with zero inputs and exactly one output is called a source node. The exactly processing done varies from one AudioNode
to another but, in general, a node reads its inputs, does some audio-related processing, and generates new values for its outputs.
AudioNodeは複数の入力、出力を持ち、それぞれがチャンネルを持ちます。入力が無く、一つの出力を持つAudioNodeは、ソースノードと呼ばれます。厳密な処理はAudioNodeによって異なりますが, 基本的に、ノードは入力を読み込み、何らかの音声関連の処理を行ってから、出力のための新しい値を出力します。
Different nodes can be linked together to build a processing graph. Such a graph is contained in an {{domxref("AudioContext")}}. Each AudioNode
participates in exactly one such context. In general, processing nodes inherit the properties and methods of AudioNode
, but also define their own functionality on top. See the individual node pages for more details, as listed on the Web Audio API homepage.
ノードは音声処理のグラフを構築するため、互いに関連付けることができます。そのようなグラフは一つの{{domxref("AudioContext")}}に含まれます。それぞれのAudioNodeは必ず一つのcontextに含まれます。一般に、ノードはAudioNodeのプロパティやメソッドを継承し、独自の機能が定義されています。個々のノードについての詳細を知りたい場合は、「Web Audio API」ホームページを御覧ください。
Note: An AudioNode
can be target of events, therefore it implements the {{domxref("EventTarget")}} interface.
numberOfInputs
property with a value of 0
.0
for this attribute."speakers"
or "discrete"
.Also implements methods from the interface {{domxref("EventTarget")}}.
This simple snippet of code shows the creation of some audio nodes, and how the AudioNode properties and methods can be used. You can find examples of such usage on any of the examples linked to on the Web Audio API landing page (for example Violent Theremin.)
var AudioContext = window.AudioContext || window.webkitAudioContext; var audioCtx = new AudioContext(); var oscillator = audioCtx.createOscillator(); var gainNode = audioCtx.createGain(); oscillator.connect(gainNode); gainNode.connect(audioCtx.destination); oscillator.context; oscillator.numberOfInputs; oscillator.numberOfOutputs; oscillator.channelCount;
Specification | Status | Comment |
---|---|---|
{{SpecName('Web Audio API', '#the-audionode-interface', 'AudioNode')}} | {{Spec2('Web Audio API')}} |
{{Compat("api.AudioNode")}}