AudioContext.createBufferSource()

AudioContextインターフェースのcreateBufferSource()メソッドは、AudioBufferオブジェクトに書き込まれた音声データを再生するAudioBufferSourceNodeを生成します。AudioBufferAudioContext.createBufferを使った場合や、AudioContext.decodeAudioDataでオーディオトラックをデコードしたときに生成されます。

構文

var audioCtx = new AudioContext();
var source = audioCtx.createBufferSource();

戻り値

AudioBufferSourceNode

この例では、2秒間のバッファを生成し、ホワイトノイズを書き込み、AudioBufferSourceNodeで再生します。コメントは何をしているかを簡単に説明しています。

注: コードの実行ソースの閲覧もできます。

var audioCtx = new (window.AudioContext || window.webkitAudioContext)();
var button = document.querySelector('button');
var pre = document.querySelector('pre');
var myScript = document.querySelector('script');

pre.innerHTML = myScript.innerHTML;

// ステレオ
var channels = 2;
// AudioContextのサンプルレートで2秒間の空のステレオバッファを生成する
var frameCount = audioCtx.sampleRate * 2.0;

var myArrayBuffer = audioCtx.createBuffer(2, frameCount, audioCtx.sampleRate);

button.onclick = function() {
  // バッファにホワイトノイズを書き込む;
  // 単なる-1.0から1.0の間の乱数の値である
  for (var channel = 0; channel < channels; channel++) {
   // 実際のデータの配列を得る
   var nowBuffering = myArrayBuffer.getChannelData(channel);
   for (var i = 0; i < frameCount; i++) {
     // Math.random()は[0; 1.0]である
     // 音声は[-1.0; 1.0]である必要がある
     nowBuffering[i] = Math.random() * 2 - 1;
   }
  }

  // AudioBufferSourceNodeを得る
  // これはAudioBufferを再生するときに使うAudioNodeである
  var source = audioCtx.createBufferSource();
  // AudioBufferSourceNodeにバッファを設定する
  source.buffer = myArrayBuffer;
  // AudioBufferSourceNodeを出力先に接続すると音声が聞こえるようになる
  source.connect(audioCtx.destination);
  // 音源の再生を始める
  source.start();
}

仕様

Specification Status Comment
Web Audio API
createBufferSource() の定義
草案  

ブラウザ互換性

BCD tables only load in the browser

参考