Web Speech API

Experimental

Это экспериментальная технология
Так как спецификация этой технологии ещё не стабилизировалась, смотрите таблицу совместимости по поводу использования в различных браузерах. Также заметьте, что синтаксис и поведение экспериментальной технологии может измениться в будущих версиях браузеров, вслед за изменениями спецификации.

Web Speech API позволяет взаимодействовать с голосовыми интерфейсами в ваших веб приложениях. Web Speech API состоит из двух частей: SpeechSynthesis (Текст-в-Речь), и SpeechRecognition (Асинхронное распознавание речи)

Концепции и использование Web Speech

Web Speech API позволяет веб приложениям управлять голосовыми данными. Существует два компонента к этому API:

  • Распознавание голоса. Доступ обеспечивается через SpeechRecognition интерфейс, который в свою очередь обеспечивает возможность распознавать текст из входящего аудио потока (обычно через устройство распознавания речи в устройстве по умолчанию) и отвечать соответственно. Воспользовавшись конструктором интерфейса вы можете создать новый SpeechRecognition объект, у которого есть ряд событий для обнаружения начала речи через микрофон устройства. SpeechGrammar интерфейс предоставляет контейнер для определённого набора грамматики, которое ваше приложение должно использовать. Грамматика определяется с помощью JSpeech Grammar Format (JSGF.)
  • Доступ к синтезу речи осуществляется с помощью SpeechSynthesis (en-US) интерфейса, компонент text-to-speech позволяет приложениям прочесть свой текстовый контент (обычно через дефолтный синтезатор речи устройства). В SpeechSynthesisVoice (en-US) объектах есть различные типы голоса, и различным частям текста можно назначать   SpeechSynthesisUtterance объекты. Можно начать воспроизведение передав их методу SpeechSynthesis.speak() (en-US).

Для большей информации по использованию этих фич, смотрите Using the Web Speech API.

Интерфейсы Web Speech API

Распознавание речи

SpeechRecognition
The controller interface for the recognition service; this also handles the SpeechRecognitionEvent (en-US) sent from the recognition service.
SpeechRecognitionAlternative (en-US)
Представляет одно слово которое было распознано службой распознавания голоса.
SpeechRecognitionError (en-US)
Представляет сообщения об ошибках из службы распознавания.
SpeechRecognitionEvent (en-US)
The event object for the result and nomatch events, and contains all the data associated with an interim or final speech recognition result.
SpeechGrammar
Слова или шаблоны слов которые мы хотим чтобы служба распознавания распознала.
SpeechGrammarList (en-US)
Представляет список объектов SpeechGrammar.
SpeechRecognitionResult (en-US)
Представляет одно распознанное совпадение, которое может содержать несколько объектов SpeechRecognitionAlternative (en-US).
SpeechRecognitionResultList (en-US)
Represents a list of SpeechRecognitionResult (en-US) objects, or a single one if results are being captured in continuous (en-US) mode.

Синтезирование речи

SpeechSynthesis (en-US)
The controller interface for the speech service; this can be used to retrieve information about the synthesis voices available on the device, start and pause speech, and other commands besides.
SpeechSynthesisErrorEvent (en-US)
Contains information about any errors that occur while processing SpeechSynthesisUtterance objects in the speech service.
SpeechSynthesisEvent (en-US)
Contains information about the current state of SpeechSynthesisUtterance objects that have been processed in the speech service.
SpeechSynthesisUtterance
Represents a speech request. It contains the content the speech service should read and information about how to read it (e.g. language, pitch and volume.)
SpeechSynthesisVoice (en-US)
Represents a voice that the system supports. Every SpeechSynthesisVoice has its own relative speech service including information about language, name and URI.
Window.speechSynthesis (en-US)
Specced out as part of a [NoInterfaceObject] interface called SpeechSynthesisGetter, and Implemented by the Window object, the speechSynthesis property provides access to the SpeechSynthesis (en-US) controller, and therefore the entry point to speech synthesis functionality.

Примеры

Web Speech API репозиторий на GitHub содержит примеры, показывающие распознавание и синтез речи.

Спецификации

Спецификация Статус Комментарий
Web Speech API Черновик Initial definition

Browser compatibility

We're converting our compatibility data into a machine-readable JSON format. This compatibility table still uses the old format, because we haven't yet converted the data it contains. Find out how you can help! (en-US)
Feature Chrome Edge Firefox (Gecko) Internet Explorer Opera Safari (WebKit)
Basic support 33[1] (Да) 49 (49)[2] Нет Нет Нет
Feature Android Chrome Edge Firefox Mobile (Gecko) Firefox OS IE Phone Opera Mobile Safari Mobile
Basic support ? (Да)[1] (Да) ? 2.5 Нет Нет Нет
  • [1] Speech recognition interfaces are currently prefixed in Chrome, so you'll need to prefix interface names appropriately, e.g. webkitSpeechRecognition; You'll also need to serve your code through a web server for recognition to work. Speech synthesis is fully supported without prefixes.
  • [2] Recognition can be enabled via the media.webspeech.recognition.enable flag in about:config; synthesis is switched on by default. Note that currently only the speech synthesis part is available in Firefox Desktop — the speech recognition part will be available soon, once the required internal permissions are sorted out.

Firefox OS permissions

To use speech recognition in an app, you need to specify the following permissions in your manifest:

"permissions": {
  "audio-capture" : {
    "description" : "Audio capture"
  },
  "speech-recognition" : {
    "description" : "Speech recognition"
  }
}

You also need a privileged app, so you need to include this as well:

  "type": "privileged"

Speech synthesis needs no permissions to be set.

Смотрите также