Die Web Speech API ermöglicht es Ihnen, Sprachdaten in Webanwendungen zu integrieren. Die Web Speech API besteht aus zwei Teilen: SpeechSynthesis (Text-zu-Sprache) und SpeechRecognition (Asynchrone Spracherkennung).
Die Web Speech API ermöglicht es Webanwendungen, Sprachdaten zu verarbeiten. Diese API hat zwei Komponenten:
Die Spracherkennung wird über das SpeechRecognition-Interface aufgerufen, das die Fähigkeit bietet, Sprachkontext von einer Audioeingabe (normalerweise über den standardmäßigen Spracherkennungsdienst des Geräts) zu erkennen und entsprechend zu reagieren. In der Regel verwenden Sie den Konstruktor des Interface, um ein neues SpeechRecognition-Objekt zu erstellen, welches eine Reihe von Ereignishandlern zur Verfügung hat, um zu erkennen, wann Sprache über das Mikrofon des Geräts eingegeben wird. Das SpeechGrammar-Interface repräsentiert einen Container für ein bestimmtes Grammatikset, das Ihre App erkennen soll. Die Grammatik wird im JSpeech Grammar Format (JSGF) definiert.
Die Sprachsynthese wird über das SpeechSynthesis-Interface aufgerufen, eine Text-zu-Sprache-Komponente, die es Programmen ermöglicht, ihren Textinhalt (normalerweise über den standardmäßigen Sprachsynthesizer des Geräts) vorzulesen. Verschiedene Stimmtypen werden durch SpeechSynthesisVoice-Objekte repräsentiert, und verschiedene Textteile, die Sie gesprochen haben möchten, werden durch SpeechSynthesisUtterance-Objekte repräsentiert. Diese können durch Übergabe an die Methode SpeechSynthesis.speak() ausgesprochen werden.
Das Ereignisobjekt für die result- und nomatch-Ereignisse und enthält alle Daten, die mit einem vorläufigen oder endgültigen Spracherkennungsergebnis verbunden sind.
Das Steuerinterface für den Sprachdienst; kann verwendet werden, um Informationen über die auf dem Gerät verfügbaren Synthesestimmen zu erhalten, Sprache zu starten und zu pausieren, sowie andere Befehle auszuführen.
Repräsentiert eine Sprachaufforderung.
Es enthält den Inhalt, den der Sprachdienst aussprechen soll, sowie Informationen darüber, wie er gelesen werden soll (z.B. Sprache, Tonhöhe und Lautstärke).
Repräsentiert eine Stimme, die das System unterstützt.
Jede SpeechSynthesisVoice hat ihren eigenen relativen Sprachdienst, einschließlich Informationen über Sprache, Name und URI.
Ausgegeben als Teil eines [NoInterfaceObject]-Interfaces namens SpeechSynthesisGetter und vom Window-Objekt implementiert, bietet die speechSynthesis-Eigenschaft Zugriff auf den SpeechSynthesis-Controller und damit den Einstieg in die Sprachsynthesefunktionalität.
Für Informationen zu Fehlern, die von der Speech API gemeldet werden (z.B. "language-not-supported" und "language-unavailable"), siehe folgende Dokumentation:
Tip: you can click/tap on a cell for more information.
Full support
Full support
No support
No support
See implementation notes.
Requires a vendor prefix or different name for use.
The compatibility table on this page is generated from structured data. If you'd like to contribute to the data, please check out https://github.com/mdn/browser-compat-data and send us a pull request.
Tip: you can click/tap on a cell for more information.
Full support
Full support
No support
No support
See implementation notes.
The compatibility table on this page is generated from structured data. If you'd like to contribute to the data, please check out https://github.com/mdn/browser-compat-data and send us a pull request.