AudioContext
Baseline
Widely available
*
This feature is well established and works across many devices and browser versions. It’s been available across browsers since April 2021.
* Some parts of this feature may have varying levels of support.
Das AudioContext-Interface repräsentiert einen Audioverarbeitungsgraphen, der aus miteinander verbundenen Audiomodulen besteht, von denen jedes durch einen AudioNode dargestellt wird.
Ein Audio-Kontext steuert sowohl die Erstellung der enthaltenen Knoten als auch die Ausführung der Audiobearbeitung oder -dekodierung. Sie müssen ein AudioContext erstellen, bevor Sie irgendetwas anderes tun, da alles innerhalb eines Kontexts abläuft. Es wird empfohlen, ein AudioContext zu erstellen und es wiederzuverwenden, anstatt jedes Mal ein neues zu initialisieren. Es ist in Ordnung, ein einziges AudioContext für mehrere verschiedene Audioquellen und Pipelines gleichzeitig zu verwenden.
Konstruktor
AudioContext()-
Erstellt und gibt ein neues
AudioContext-Objekt zurück.
Instanzeigenschaften
Erbt auch Eigenschaften von seinem Eltern-Interface, BaseAudioContext.
AudioContext.baseLatencySchreibgeschützt-
Gibt die Anzahl der Sekunden an Verarbeitungsverzögerung zurück, die das
AudioContextverursacht, wenn es das Audio vomAudioDestinationNodezum Audiosubsystem übermittelt. AudioContext.outputLatencySchreibgeschützt-
Gibt eine Schätzung der Ausgangsverzögerung des aktuellen Audiokontexts zurück.
AudioContext.sinkIdSchreibgeschützt Experimentell Sicherer Kontext-
Gibt die Sink-ID des aktuellen Ausgangsaudiogeräts zurück.
Instanzmethoden
Erbt auch Methoden von seinem Eltern-Interface, BaseAudioContext.
AudioContext.close()-
Schließt den Audio-Kontext und gibt alle Audiosystem-Ressourcen frei, die es verwendet.
AudioContext.createMediaElementSource()-
Erstellt einen
MediaElementAudioSourceNode, der mit einemHTMLMediaElementverbunden ist. Dies kann verwendet werden, um Audio von<video>- oder<audio>-Elementen abzuspielen und zu manipulieren. AudioContext.createMediaStreamSource()-
Erstellt einen
MediaStreamAudioSourceNode, der mit einemMediaStreamverbunden ist, der einen Audiostream darstellt, der möglicherweise vom Mikrofon des lokalen Computers oder von anderen Quellen stammt. AudioContext.createMediaStreamDestination()-
Erstellt einen
MediaStreamAudioDestinationNode, der mit einemMediaStreamverbunden ist, der einen Audiostream darstellt, der möglicherweise in einer lokalen Datei gespeichert oder an einen anderen Computer gesendet wird. AudioContext.createMediaStreamTrackSource()-
Erstellt einen
MediaStreamTrackAudioSourceNode, der mit einemMediaStreamverbunden ist, der eine Mediastream-Spur repräsentiert. AudioContext.getOutputTimestamp()-
Gibt ein neues
AudioTimestamp-Objekt zurück, das zwei Audiotimestamp-Werte enthält, die sich auf den aktuellen Audio-Kontext beziehen. AudioContext.resume()-
Setzt den Fortschritt der Zeit in einem Audio-Kontext fort, der zuvor angehalten/pausiert wurde.
AudioContext.setSinkId()Experimentell Sicherer Kontext-
Legt das Ausgangsaudiogerät für das
AudioContextfest. AudioContext.suspend()-
Unterbricht den Fortschritt der Zeit im Audio-Kontext und stoppt vorübergehend den Zugriff auf die Audiohardware, wodurch die CPU/Batteriebelastung reduziert wird.
Ereignisse
sinkchangeExperimentell-
Wird ausgelöst, wenn sich das Ausgangsaudiogerät (und damit die
AudioContext.sinkId) geändert hat.
Beispiele
Grundlegende Audio-Kontext-Deklaration:
const audioCtx = new AudioContext();
const oscillatorNode = audioCtx.createOscillator();
const gainNode = audioCtx.createGain();
const finish = audioCtx.destination;
// etc.
Spezifikationen
| Specification |
|---|
| Web Audio API> # AudioContext> |
Browser-Kompatibilität
Loading…