La API Web de Voz (Web Speech API) te permite incorporar datos de voz en aplicaciones web.
La API Web de Voz tiene dos partes: SpeechSynthesis (Texto a voz) y SpeechRecognition (Reconocimiento de voz asíncrono).
La API Web de Voz permite que las aplicaciones web manejen datos de voz.
Hay dos componentes en esta API:
Se accede al reconocimiento de voz a través de la interfaz SpeechRecognition, que brinda la capacidad de reconocer el contexto de voz desde una entrada de audio (normalmente a través del servicio de reconocimiento de voz predeterminado del dispositivo) y responder adecuadamente.
Por lo general, usará el constructor de la interfaz para crear un nuevo objeto SpeechRecognition, que tiene varios controladores de eventos disponibles para detectar cuándo se ingresa voz a través del micrófono del dispositivo. La interfaz SpeechGrammar representa un contenedor para un conjunto particular de gramática que tu aplicación debería reconocer.
La gramática se define mediante JSpeech Grammar Format (JSGF).
Se accede a la síntesis de voz a través de la interfaz SpeechSynthesis, un componente de texto a voz que permite que los programas lean su contenido de texto (normalmente a través del sintetizador de voz predeterminado del dispositivo). Los diferentes tipos de voz se representan mediante Los objetos SpeechSynthesisVoice y las diferentes partes del texto que desea que se hablen se representan mediante objetos SpeechSynthesisUtterance.
Puedes hacer que se hablen pasándolos al método SpeechSynthesis.speak().
La interfaz del controlador para el servicio de reconocimiento; esto también maneja el SpeechRecognitionEvent enviado desde el servicio de reconocimiento.
El objeto de evento para los eventos result y nomatch y contiene todos los datos asociados con un evento intermedio o resultado final del reconocimiento de voz.
La interfaz del controlador para el servicio de voz; esto se puede usar para recuperar información sobre las voces de síntesis disponibles en el dispositivo, iniciar y pausar el habla y otros comandos además.
Representa una solicitud de voz.
Contiene el contenido que debe leer el servicio de voz e información sobre cómo leerlo (por ejemplo, idioma, tono y volumen).
Representa una voz que admite el sistema.
Cada SpeechSynthesisVoice tiene su propio servicio de voz relativo que incluye información sobre el idioma, el nombre y la URI.
Especificada como parte de una interfaz [NoInterfaceObject] llamada SpeechSynthesisGetter e implementada por el objeto Window, la propiedad speechSynthesis brinda acceso al controlador SpeechSynthesis y, por lo tanto, al punto de entrada a la funcionalidad de síntesis de voz.
Para obtener información sobre los errores arrojados por la API Web de Voz (por ejemplo, "language-not-supported" y "language-unavailable"), consulte la siguiente documentación:
Tip: you can click/tap on a cell for more information.
Full support
Full support
No support
No support
See implementation notes.
Requires a vendor prefix or different name for use.
The compatibility table on this page is generated from structured data. If you'd like to contribute to the data, please check out https://github.com/mdn/browser-compat-data and send us a pull request.
Tip: you can click/tap on a cell for more information.
Full support
Full support
No support
No support
See implementation notes.
The compatibility table on this page is generated from structured data. If you'd like to contribute to the data, please check out https://github.com/mdn/browser-compat-data and send us a pull request.