Dieser Inhalt wurde automatisch aus dem Englischen übersetzt, und kann Fehler enthalten. Erfahre mehr über dieses Experiment.

View in English Always switch to English

AudioContext

Baseline Widely available *

This feature is well established and works across many devices and browser versions. It’s been available across browsers since ⁨April 2021⁩.

* Some parts of this feature may have varying levels of support.

Das AudioContext-Interface repräsentiert einen Audioverarbeitungsgraphen, der aus miteinander verbundenen Audiomodulen besteht, von denen jedes durch einen AudioNode dargestellt wird.

Ein Audio-Kontext steuert sowohl die Erstellung der enthaltenen Knoten als auch die Ausführung der Audiobearbeitung oder -dekodierung. Sie müssen ein AudioContext erstellen, bevor Sie irgendetwas anderes tun, da alles innerhalb eines Kontexts abläuft. Es wird empfohlen, ein AudioContext zu erstellen und es wiederzuverwenden, anstatt jedes Mal ein neues zu initialisieren. Es ist in Ordnung, ein einziges AudioContext für mehrere verschiedene Audioquellen und Pipelines gleichzeitig zu verwenden.

EventTarget BaseAudioContext AudioContext

Konstruktor

AudioContext()

Erstellt und gibt ein neues AudioContext-Objekt zurück.

Instanzeigenschaften

Erbt auch Eigenschaften von seinem Eltern-Interface, BaseAudioContext.

AudioContext.baseLatency Schreibgeschützt

Gibt die Anzahl der Sekunden an Verarbeitungsverzögerung zurück, die das AudioContext verursacht, wenn es das Audio vom AudioDestinationNode zum Audiosubsystem übermittelt.

AudioContext.outputLatency Schreibgeschützt

Gibt eine Schätzung der Ausgangsverzögerung des aktuellen Audiokontexts zurück.

AudioContext.sinkId Schreibgeschützt Experimentell Sicherer Kontext

Gibt die Sink-ID des aktuellen Ausgangsaudiogeräts zurück.

Instanzmethoden

Erbt auch Methoden von seinem Eltern-Interface, BaseAudioContext.

AudioContext.close()

Schließt den Audio-Kontext und gibt alle Audiosystem-Ressourcen frei, die es verwendet.

AudioContext.createMediaElementSource()

Erstellt einen MediaElementAudioSourceNode, der mit einem HTMLMediaElement verbunden ist. Dies kann verwendet werden, um Audio von <video>- oder <audio>-Elementen abzuspielen und zu manipulieren.

AudioContext.createMediaStreamSource()

Erstellt einen MediaStreamAudioSourceNode, der mit einem MediaStream verbunden ist, der einen Audiostream darstellt, der möglicherweise vom Mikrofon des lokalen Computers oder von anderen Quellen stammt.

AudioContext.createMediaStreamDestination()

Erstellt einen MediaStreamAudioDestinationNode, der mit einem MediaStream verbunden ist, der einen Audiostream darstellt, der möglicherweise in einer lokalen Datei gespeichert oder an einen anderen Computer gesendet wird.

AudioContext.createMediaStreamTrackSource()

Erstellt einen MediaStreamTrackAudioSourceNode, der mit einem MediaStream verbunden ist, der eine Mediastream-Spur repräsentiert.

AudioContext.getOutputTimestamp()

Gibt ein neues AudioTimestamp-Objekt zurück, das zwei Audiotimestamp-Werte enthält, die sich auf den aktuellen Audio-Kontext beziehen.

AudioContext.resume()

Setzt den Fortschritt der Zeit in einem Audio-Kontext fort, der zuvor angehalten/pausiert wurde.

AudioContext.setSinkId() Experimentell Sicherer Kontext

Legt das Ausgangsaudiogerät für das AudioContext fest.

AudioContext.suspend()

Unterbricht den Fortschritt der Zeit im Audio-Kontext und stoppt vorübergehend den Zugriff auf die Audiohardware, wodurch die CPU/Batteriebelastung reduziert wird.

Ereignisse

sinkchange Experimentell

Wird ausgelöst, wenn sich das Ausgangsaudiogerät (und damit die AudioContext.sinkId) geändert hat.

Beispiele

Grundlegende Audio-Kontext-Deklaration:

js
const audioCtx = new AudioContext();

const oscillatorNode = audioCtx.createOscillator();
const gainNode = audioCtx.createGain();
const finish = audioCtx.destination;
// etc.

Spezifikationen

Specification
Web Audio API
# AudioContext

Browser-Kompatibilität

Siehe auch