AudioContext

Интерфейс AudioContext можно представить как граф, состоящий из связанных между собой узлов AudioNode. С помощью этого интерфейса можно контролировать как создание узлов, из которых состоит AudioContext, так и контролировать обработку и декодирование звука. Необходимо создать AudioContext перед тем как делать что-либо ещё со звуком, так как всё что происходит при обработке звука, происходит внутри AudioContext.

AudioContext может выступать как обработчик событий, и он реализует интерфейс EventTarget.

Свойства

AudioContext.currentTime Только для чтения
Содержит число с типом double, которое содержит значение времени в секундах, полученное от часов компьютера клиента. Это значение не может быть изменено никаким образом, оно только для чтения.
AudioContext.destination (en-US) Только для чтения
Содержит ссылку на AudioDestinationNode (en-US), представляющий собой точку назначения для всего аудио в этом контексте. Может рассматриваться как, например, аудио-воспроизводящее устройство.
AudioContext.listener (en-US) Только для чтения
Содержит ссылку на объект AudioListener (en-US), применяется для ориентирования в 3D-пространстве.
AudioContext.sampleRate (en-US) Только для чтения
Содержит число с типом float, представляющее собой частоту сэмплирования звука (sample rate), используемую всеми узлами в этом контексте. Это значение только для чтения и не может быть изменено.
AudioContext.mozAudioChannelType Только для чтения
Содержит ссылку на аудио-канал, который будет использоваться для воспроизведения звука в AudioContext на устройствах с FireFox OS. Только для чтения.

Методы

Также реализованы методы из интерфейса EventTarget.

AudioContext.createBuffer() (en-US)
Создаёт новый пустой объект AudioBuffer, в который затем могут помещаться данные для воспроизведения через AudioBufferSourceNode (en-US).
AudioContext.createBufferSource() (en-US)
Создаёт объект AudioBufferSourceNode (en-US), который может быть использован для воспроизведения и обработки данных звукового потока, содержащегося в объекте AudioBuffer . Объекты типа AudioBuffer создаются с помощью метода AudioContext.createBuffer (en-US) или возвращаются методом AudioContext.decodeAudioData, когда декодирование аудио-дорожки успешно завершено.
AudioContext.createMediaElementSource()
Создаёт объект MediaElementAudioSourceNode, ассоциированный с HTMLMediaElement. Может использоваться для воспроизведения или манипулирования данными звукового потока из <video> или <audio> элементов.
AudioContext.createMediaStreamSource() (en-US)
Создаёт объект MediaStreamAudioSourceNode (en-US), ассоциированный с MediaStream, и который представляет аудио-поток, поступающий от подключённого к клиентскому компьютеру микрофона или других источников.
AudioContext.createMediaStreamDestination() (en-US)
Создаёт объект MediaStreamAudioDestinationNode (en-US), ассоциированный с MediaStream и представляющий собой аудио-поток, который можно сохранить в локальный файл или передать на другой компьютер.
AudioContext.createScriptProcessor() (en-US)
Создаёт объект ScriptProcessorNode (en-US), который может быть использован для прямой обработки звука с помощью JavaScript.
AudioContext.createAnalyser() (en-US)
Создаёт объект AnalyserNode, который может быть использован для получения времени воспроизведения и частоты воспроизводимого звука, что, в свою очередь может быть использовано для визуализации звукового потока.
AudioContext.createBiquadFilter() (en-US)
Создаёт объект BiquadFilterNode (en-US), который представляет собой фильтр второго порядка, конфигурируемый как фильтр верхних частот, как фильтр нижних частот, фильтр полосы пропускания и так далее.
AudioContext.createChannelMerger() (en-US)
Создаёт объект ChannelMergerNode (en-US), который используется для слияния каналов из множества аудио-потоков в один аудио-поток.
AudioContext.createChannelSplitter() (en-US)
Создаёт объект ChannelSplitterNode (en-US), который используется для доступа к отдельным каналам аудио-потока для их дальнейшей обработки по отдельности.
AudioContext.createConvolver() (en-US)
Создаёт объект ConvolverNode (en-US), который может быть использован для применения эффекта свёртки (convolution effect) к аудио-графу. Например, для создания эффекта реверберации.
AudioContext.createDelay() (en-US)
Создаёт объект DelayNode (en-US), который может быть использован для задержки входящего аудио-сигнала на определённое время. Этот узел также удобен для создания петель обратной связи (feedback loops) в Web Audio графе.
AudioContext.createDynamicsCompressor() (en-US)
Создаёт объект DynamicsCompressorNode (en-US), который может быть использован для акустической компрессии аудио-сигнала.
AudioContext.decodeAudioData()
Асинхронно декодирует данные из аудио-файла, находящиеся в ArrayBuffer (en-US). В этом случае ArrayBuffer заполняется при ответе на запрос XMLHttpRequestи установке атрибута responseType в arraybuffer. Этот метод работает только с полными аудио-файлами и не работает с их фрагментами. 
AudioContext.createGain() (en-US)
Создаёт объект GainNode (en-US), который может быть использован для контроля общей громкости во всём аудио-графе.
AudioContext.createOscillator() (en-US)
Создаёт объект OscillatorNode (en-US), источник, представляющий собой периодическую волну звукового сигнала.
AudioContext.createPanner()
Создаёт объект PannerNode, который используется для пространственного определения аудио-потока в трёхмерном пространстве.
AudioContext.createPeriodicWave() (en-US)
Создаёт объект PeriodicWave (en-US), используемый для определения периодической волны звукового сигнала, которая, в свою очередь, используется для определения вывода в OscillatorNode (en-US).
AudioContext.createWaveShaper() (en-US)
Создаёт объект WaveShaperNode (en-US), который может быть использован для создания эффектов нелинейных звуковых искажений.
AudioContext.createAudioWorker()
Создаёт объект AudioWorkerNode, который может взаимодействовать с потоком web worker для непосредственных генерации, обработки или анализа аудио данных. Этот метод был добавлен в спецификацию 29 августа 2014 года и не в каждом браузере пока поддерживается.

Устаревшие методы

AudioContext.createJavaScriptNode() (en-US)
Создаёт объект JavaScriptNode, используемый для непосредственной обработки звука в JavaScript. Этот метод устарел и заменён на AudioContext.createScriptProcessor() (en-US).
AudioContext.createWaveTable() (en-US)
Создаёт объект WaveTableNode, для определения периодической волны звукового сигнала. Этот метод устарел и заменён на AudioContext.createPeriodicWave() (en-US).

Примеры

Простая декларация аудио-контекста:

var audioCtx = new AudioContext;

Кросс-браузерный вариант:

var AudioContext = window.AudioContext || window.webkitAudioContext;
var audioCtx = new AudioContext();

var oscillatorNode = audioCtx.createOscillator();
var gainNode = audioCtx.createGain();
var finish = audioCtx.destination;
// etc.

Спецификации

Specification Status Comment
Web Audio API
Определение 'AudioContext' в этой спецификации.
Рекомендация  

Совместимость с браузерами

BCD tables only load in the browser

Смотрите также