BaseAudioContext: createScriptProcessor() Methode
Veraltet: Diese Funktion wird nicht mehr empfohlen. Obwohl einige Browser sie möglicherweise noch unterstützen, kann sie bereits aus den relevanten Webstandards entfernt worden sein, befindet sich im Prozess der Entfernung oder wird nur aus Kompatibilitätsgründen beibehalten. Vermeiden Sie die Verwendung und aktualisieren Sie gegebenenfalls bestehenden Code; siehe die Kompatibilitätstabelle am Ende dieser Seite, um Ihre Entscheidung zu treffen. Beachten Sie, dass diese Funktion jederzeit nicht mehr funktionieren kann.
Die createScriptProcessor()
-Methode der BaseAudioContext
-Schnittstelle
erstellt einen ScriptProcessorNode
, der für die direkte Audiobearbeitung verwendet wird.
Hinweis: Diese Funktion wurde durch AudioWorklets und die AudioWorkletNode
-Schnittstelle ersetzt.
Syntax
createScriptProcessor(bufferSize, numberOfInputChannels, numberOfOutputChannels)
Parameter
bufferSize
-
Die Puffergröße in Einheiten von Sample-Frames. Wenn angegeben, muss die
bufferSize
einer der folgenden Werte sein: 256, 512, 1024, 2048, 4096, 8192, 16384. Wenn kein Wert übergeben wird oder der Wert 0 ist, wählt die Implementierung die beste Puffergröße für die gegebene Umgebung, die während der gesamten Lebensdauer des Knotens eine konstante Potenz von 2 sein wird.Dieser Wert steuert, wie häufig das
audioprocess
-Ereignis ausgelöst wird und wie viele Sample-Frames bei jedem Aufruf verarbeitet werden müssen. Niedrigere Werte fürbufferSize
führen zu einer niedrigeren (besseren) Latenz. Höhere Werte werden notwendig sein, um Audio-Unterbrechungen und -Glitches zu vermeiden. Es wird empfohlen, dass Autoren diese Puffergröße nicht angeben und der Implementierung erlauben, eine gute Puffergröße auszuwählen, um ein Gleichgewicht zwischen Latenz und Audioqualität zu erreichen. numberOfInputChannels
-
Ganzzahl, die die Anzahl der Kanäle für den Eingang dieses Knotens angibt, standardmäßig 2. Werte von bis zu 32 werden unterstützt.
numberOfOutputChannels
-
Ganzzahl, die die Anzahl der Kanäle für den Ausgang dieses Knotens angibt, standardmäßig 2. Werte von bis zu 32 werden unterstützt.
Warnung: WebKit erfordert derzeit (Version 31), dass eine gültige
bufferSize
übergeben wird, wenn diese Methode aufgerufen wird.
Hinweis: Es ist ungültig, wenn sowohl numberOfInputChannels
als auch
numberOfOutputChannels
null sind.
Rückgabewert
Ein ScriptProcessorNode
.
Beispiele
Weißes Rauschen mit einem Script-Processor hinzufügen
Das folgende Beispiel zeigt, wie ein ScriptProcessorNode
verwendet wird, um einen über AudioContext.decodeAudioData()
geladenen Track zu verarbeiten, indem jedem Audio-Sample des Eingabetracks ein wenig weißes Rauschen hinzugefügt und über den AudioDestinationNode
abgespielt wird.
Für jeden Kanal und jedes Sample-Frame verwendet der audioprocess
-Ereignishandler des Skriptknotens das zugehörige audioProcessingEvent
, um durch jeden Kanal des Eingabepuffers zu schleifen und jedem Sample in jedem Kanal eine kleine Menge weißen Rauschens hinzuzufügen, bevor das Ergebnis in jedem Fall als Ausgangs-Sample gesetzt wird.
Hinweis: Sie können das vollständige Beispiel live ausführen oder den Quellcode anzeigen.
const myScript = document.querySelector("script");
const myPre = document.querySelector("pre");
const playButton = document.querySelector("button");
// Create AudioContext and buffer source
let audioCtx;
async function init() {
audioCtx = new AudioContext();
const source = audioCtx.createBufferSource();
// Create a ScriptProcessorNode with a bufferSize of 4096 and
// a single input and output channel
const scriptNode = audioCtx.createScriptProcessor(4096, 1, 1);
// Load in an audio track using fetch() and decodeAudioData()
try {
const response = await fetch("viper.ogg");
const arrayBuffer = await response.arrayBuffer();
source.buffer = await audioCtx.decodeAudioData(arrayBuffer);
} catch (err) {
console.error(
`Unable to fetch the audio file: ${name} Error: ${err.message}`,
);
}
// Give the node a function to process audio events
scriptNode.addEventListener("audioprocess", (audioProcessingEvent) => {
// The input buffer is the song we loaded earlier
let inputBuffer = audioProcessingEvent.inputBuffer;
// The output buffer contains the samples that will be modified and played
let outputBuffer = audioProcessingEvent.outputBuffer;
// Loop through the output channels (in this case there is only one)
for (let channel = 0; channel < outputBuffer.numberOfChannels; channel++) {
let inputData = inputBuffer.getChannelData(channel);
let outputData = outputBuffer.getChannelData(channel);
// Loop through the 4096 samples
for (let sample = 0; sample < inputBuffer.length; sample++) {
// make output equal to the same as the input
outputData[sample] = inputData[sample];
// add noise to each output sample
outputData[sample] += (Math.random() * 2 - 1) * 0.1;
}
}
});
source.connect(scriptNode);
scriptNode.connect(audioCtx.destination);
source.start();
// When the buffer source stops playing, disconnect everything
source.addEventListener("ended", () => {
source.disconnect(scriptNode);
scriptNode.disconnect(audioCtx.destination);
});
}
// wire up play button
playButton.addEventListener("click", () => {
if (!audioCtx) {
init();
}
});
Spezifikationen
Specification |
---|
Web Audio API # dom-baseaudiocontext-createscriptprocessor |
Browser-Kompatibilität
BCD tables only load in the browser