BaseAudioContext: createBufferSource()-Methode
        
        
          
                Baseline
                
                  Widely available
                
                
              
        
        
        
          
                
              
                
              
                
              
        
        
      
      This feature is well established and works across many devices and browser versions. It’s been available across browsers since April 2021.
Die createBufferSource()-Methode der BaseAudioContext
Schnittstelle wird verwendet, um ein neues AudioBufferSourceNode zu erstellen, das zum Abspielen von Audiodaten verwendet werden kann, die in einem AudioBuffer-Objekt enthalten sind.
AudioBuffers werden mittels BaseAudioContext.createBuffer erstellt oder von BaseAudioContext.decodeAudioData zurückgegeben, wenn es einen Audiotrack erfolgreich dekodiert.
Hinweis:
Der AudioBufferSourceNode()
Konstruktor ist die empfohlene Methode, um ein AudioBufferSourceNode zu erstellen; siehe
Creating an AudioNode.
Syntax
createBufferSource()
Parameter
Keine.
Rückgabewert
Beispiele
In diesem Beispiel erstellen wir einen zwei Sekunden langen Puffer, füllen ihn mit Weißrauschen und spielen ihn dann über ein AudioBufferSourceNode ab. Die Kommentare sollten klar erklären, was vor sich geht.
Hinweis: Sie können den Code auch live ausführen oder den Quellcode ansehen.
const audioCtx = new AudioContext();
const button = document.querySelector("button");
const pre = document.querySelector("pre");
const myScript = document.querySelector("script");
pre.textContent = myScript.textContent;
// Stereo
const channels = 2;
// Create an empty two second stereo buffer at the
// sample rate of the AudioContext
const frameCount = audioCtx.sampleRate * 2.0;
const myArrayBuffer = audioCtx.createBuffer(
  channels,
  frameCount,
  audioCtx.sampleRate,
);
button.onclick = () => {
  // Fill the buffer with white noise;
  // just random values between -1.0 and 1.0
  for (let channel = 0; channel < channels; channel++) {
    // This gives us the actual ArrayBuffer that contains the data
    const nowBuffering = myArrayBuffer.getChannelData(channel);
    for (let i = 0; i < frameCount; i++) {
      // Math.random() is in [0; 1.0]
      // audio needs to be in [-1.0; 1.0]
      nowBuffering[i] = Math.random() * 2 - 1;
    }
  }
  // Get an AudioBufferSourceNode.
  // This is the AudioNode to use when we want to play an AudioBuffer
  const source = audioCtx.createBufferSource();
  // set the buffer in the AudioBufferSourceNode
  source.buffer = myArrayBuffer;
  // connect the AudioBufferSourceNode to the
  // destination so we can hear the sound
  source.connect(audioCtx.destination);
  // start the source playing
  source.start();
};
Spezifikationen
| Specification | 
|---|
| Web Audio API> # dom-baseaudiocontext-createbuffersource>  | 
            
Browser-Kompatibilität
Loading…