AudioContext

L'interface AudioContext représente un graphe de traitement audio fait de modules audio reliés entre eux, chaque module correspondant à un AudioNode. Un contexte audio contrôle à la fois la création des nœuds qu'il contient et l'exécution du traitement audio, ou du décodage. On commence toujours par créer un contexte audio, et tout ce qui va se passer ensuite se situera dans ce contexte.

Un contexte audio peut être la cible d'événements, par conséquent il implémente l'interface EventTarget.

EventTarget BaseAudioContext AudioContext

Constructeur

AudioContext() (en-US)

Crée et retourne un nouvel objet AudioContext.

Propriétés

AudioContext.currentTime (en-US) Lecture seule

Renvoie un double flottant, qui représente un temps en secondes en augmentation continue, utilisé pour situer dans le temps. Il commence à 0.

AudioContext.destination (en-US) Lecture seule

Retourne un AudioDestinationNode (en-US) représentant la destination finale de tous les fichiers audio dans un contexte. On peut le considérer comme un dispositif de rendu audio.

AudioContext.listener (en-US) Lecture seule

Renvoie l'objet AudioListener, utilisé pour la spatialisation 3D.

AudioContext.sampleRate (en-US) Lecture seule

Renvoie un nombre flottant représentant la fréquence d'échantillonnage (échantillons par seconde) utilisée par tous les nœuds dans ce contexte.La fréquence d'échantillonnage d'un contexte audio ne peut pas être modifiée.

AudioContext.state (en-US) Lecture seule

Renvoie l'état actuel du contexte audio.

AudioContext.mozAudioChannelType Non-standard Lecture seule

Sur Firefox OS, utilisé pour renvoyer la piste audio dans laquelle sera jouée le son qui sera lancé dans le contexte audio.

Event handlers

AudioContext.onstatechange (en-US)

Un gestionnaire d'évènement déclenché par un évènement du type statechange. Cela a lieu quand l'état du contexte audio change, en raison de l'appel des méthodes de changement d'état (AudioContext.suspend (en-US), AudioContext.resume (en-US), ou AudioContext.close (en-US).)

Méthodes

Met également en œuvre des méthodes de l'interface EventTarget.

AudioContext.close() (en-US)

Supprime le contexte audio, et libère toutes les ressources audio système qu'il utilisait.

AudioContext.createBuffer() (en-US)

Crée un nouvel objet AudioBuffer vide, auquel on pourra assigner des données et que l'on pourra jouer via un AudioBufferSourceNode

AudioContext.createBufferSource() (en-US)

Crée un objet AudioBufferSourceNode, qui peut être utilisé pour jouer et manipuler des données audio contenues dans un objet AudioBuffer. Les AudioBuffers sont créés avec la fonction AudioContext.createBuffer (en-US) ou retournés par la fonction AudioContext.decodeAudioData (en-US) quand elle décode une piste audio avec succès.

AudioContext.createMediaElementSource()

Crée un objet MediaElementAudioSourceNode (en-US) associé à HTMLMediaElement. Il peut être utilisé pour manipuler le son d'éléments <video> ou <audio>.

AudioContext.createMediaStreamSource() (en-US)

Crée un objet MediaStreamAudioSourceNode associé à un MediaStream correspondant à un flux audio, qui peut provenir du microphone de l'ordinateur local ou d'autres sources.

AudioContext.createMediaStreamDestination() (en-US)

Crée un objet MediaStreamAudioDestinationNode (en-US) associé à un MediaStream correspondant à un flux audio, qui peut être stocké dans un fichier local ou envoyé à un autre ordinateur.

AudioContext.createScriptProcessor() (en-US)

Crée un objet ScriptProcessorNode (en-US) qui sert à faire du traitement audio directement avec JavaScript.

AudioContext.createStereoPanner() (en-US)

Crée un objet StereoPannerNode (en-US) qui permet d'appliquer une panoramique sonore à une source audio.

AudioContext.createAnalyser() (en-US)

Crée un objet AnalyserNode qui expose les données de temps et de fréquence, et peut être utilisé pour créer des visualisations de données.

AudioContext.createBiquadFilter() (en-US)

Crée un objet BiquadFilterNode, qui représente un filtre de deuxième niveau, qui combine différents types de filtres de base : fréquences hautes, fréquences basses, passe-bande, etc.

AudioContext.createChannelMerger() (en-US)

Crée un objet ChannelMergerNode (en-US) qui permet de rassembler les canaux de différents flux audio en un seul flux.

AudioContext.createChannelSplitter() (en-US)

Crée un objet ChannelSplitterNode (en-US) utilisé pour accéder aux différents canaux d'un même flux audio et les traiter séparément.

AudioContext.createConvolver() (en-US)

Crée un objet ConvolverNode (en-US), qui permet d'appliquer des effets de convolution à un graphe audio, par exemple un effet de réverb.

AudioContext.createDelay() (en-US)

Crée un objet DelayNode (en-US), utilisé pour retarder le signal audio entrant d'un certain temps. Il est également

AudioContext.createDynamicsCompressor() (en-US)

Crée un objet DynamicsCompressorNode (en-US) qui permet d'appliquer une compression sur un signal audio.

AudioContext.createGain()

Crée un objet GainNode qui permet de controller le niveau sonore global d'un graphe audio.

AudioContext.createIIRFilter() (en-US)

Crée un objet IIRFilterNode (en-US), qui représente un filtre de second ordre configurable comme différents types de filtres communs.

AudioContext.createOscillator() (en-US)

Crée un objet OscillatorNode qui représente une onde périodique. Il génère simplement un son.

AudioContext.createPanner() (en-US)

Crée un objet PannerNode (en-US) utilisé pour spatialiser une source audio entrante dans un espace 3D.

AudioContext.createPeriodicWave() (en-US)

Crée un objet PeriodicWave, utilisé pour définir une onde périodique qui peut être utilisée pour contrôler la sortie d'un OscillatorNode.

AudioContext.createWaveShaper() (en-US)

Crée un objet WaveShaperNode (en-US), qui permet d'implémenter des effets de distorsion non linéaires.

AudioContext.createAudioWorker()

Crée un objet AudioWorkerNode, qui permet d'interagir avec un thread web worker afin de générer, traiter, ou analyser le son directement. Ajouté à la spec le 29 août 2014, mais encore implémenté par aucun des navigateurs à ce jour.

AudioContext.decodeAudioData() (en-US)

Décode de façon asynchrone les données d'un fichier audio contenues dans un objet ArrayBuffer. Dans ce cas, le ArrayBuffer est en général chargé depuis un attribut de réponse XMLHttpRequest quand l'attribut responseType est arraybuffer. Cette méthode ne fonctionne que sur des fichiers complets, pas sur des fragments de fichiers.

AudioContext.resume() (en-US)

Reprend le défilement du temps dans un contexte audio où il a précédemment été suspendu.

AudioContext.suspend() (en-US)

Suspend le défilement du temps dans un contexte audio, empêchant de façon temporaire l'accès au hardware audio, et réduisant par là l'utilisation du CPU et de la batterie.

Méthodes obsolètes

AudioContext.createJavaScriptNode() (en-US)

Crée un objet JavaScriptNode, utilisé pour un traitement audio directement en JavaScript. Cette méthode est obsolète, et a été remplacée par AudioContext.createScriptProcessor() (en-US).

AudioContext.createWaveTable() (en-US)

Crée un objet WaveTableNode, utilisé pour définir une onde audio périodique. Cette méthode est obsolète, et a été remplacée par AudioContext.createPeriodicWave() (en-US).

Exemples

Déclaration basique d'un audio context :

js
var contexteAudio = new AudioContext();

Variante avec gestion de la compatibilité navigateur:

js
var AudioContext = window.AudioContext || window.webkitAudioContext;
var contexteAudio = new AudioContext();

var oscillatorNode = contexteAudio.createOscillator();
var gainNode = contexteAudio.createGain();
var finish = contexteAudio.destination;
// etc.

Spécifications

Specification
Web Audio API
# AudioContext

Compatibilité des navigateurs

BCD tables only load in the browser

Voir aussi