diff options
author | Peter Bengtsson <mail@peterbe.com> | 2020-12-08 14:40:17 -0500 |
---|---|---|
committer | Peter Bengtsson <mail@peterbe.com> | 2020-12-08 14:40:17 -0500 |
commit | 33058f2b292b3a581333bdfb21b8f671898c5060 (patch) | |
tree | 51c3e392513ec574331b2d3f85c394445ea803c6 /files/zh-cn/web/api/web_speech_api/index.html | |
parent | 8b66d724f7caf0157093fb09cfec8fbd0c6ad50a (diff) | |
download | translated-content-33058f2b292b3a581333bdfb21b8f671898c5060.tar.gz translated-content-33058f2b292b3a581333bdfb21b8f671898c5060.tar.bz2 translated-content-33058f2b292b3a581333bdfb21b8f671898c5060.zip |
initial commit
Diffstat (limited to 'files/zh-cn/web/api/web_speech_api/index.html')
-rw-r--r-- | files/zh-cn/web/api/web_speech_api/index.html | 116 |
1 files changed, 116 insertions, 0 deletions
diff --git a/files/zh-cn/web/api/web_speech_api/index.html b/files/zh-cn/web/api/web_speech_api/index.html new file mode 100644 index 0000000000..82ffea08fa --- /dev/null +++ b/files/zh-cn/web/api/web_speech_api/index.html @@ -0,0 +1,116 @@ +--- +title: Web Speech API +slug: Web/API/Web_Speech_API +tags: + - API + - 参考 + - 合成 + - 实验性的 + - 网页语音API + - 识别 + - 语音 +translation_of: Web/API/Web_Speech_API +--- +<div>{{DefaultAPISidebar("Web Speech API")}}{{seecompattable}}</div> + +<div class="summary"> +<p>Web Speech API 使您能够将语音数据合并到 Web 应用程序中。 Web Speech API 有两个部分:SpeechSynthesis 语音合成 (文本到语音 TTS)和 SpeechRecognition 语音识别(异步语音识别)。</p> +</div> + +<h2 id="Web_Speech_的概念及用法">Web Speech 的概念及用法</h2> + +<p>Web Speech API 使 Web 应用能够处理语音数据,该项 API 包含以下两个部分:</p> + +<ul> + <li>语音识别通过 {{domxref("SpeechRecognition")}} 接口进行访问,它提供了识别从音频输入(通常是设备默认的语音识别服务)中识别语音情景的能力。一般来说,你将使用该接口的构造函数来构造一个新的 {{domxref("SpeechRecognition")}} 对象,该对象包含了一些列有效的对象处理函数来检测识别设备麦克风中的语音输入。{{domxref("SpeechGrammar")}} 接口则表示了你应用中想要识别的特定文法。文法则通过 <a href="http://www.w3.org/TR/jsgf/">JSpeech Grammar Format</a> (<strong>JSGF</strong>.) 来定义。</li> + <li>语音合成通过 {{domxref("SpeechSynthesis")}} 接口进行访问,它提供了文字到语音(TTS)的能力,这使得程序能够读出它们的文字内容(通常使用设备默认的语音合成器)。不同的声音类类型通过 {{domxref("SpeechSynthesisVoice")}} 对象进行表示,不同部分的文字则由 {{domxref("SpeechSynthesisUtterance")}} 对象来表示。你可以将它们传递给 {{domxref("SpeechSynthesis.speak()")}} 方法来产生语音。</li> +</ul> + +<p>更多关于这些特性的细节请参考 <a href="/en-US/docs/Web/API/Web_Speech_API/Using_the_Web_Speech_API">Using the Web Speech API</a>。</p> + +<h2 id="Web_Speech_的_API_接口">Web Speech 的 API 接口</h2> + +<h3 id="语音识别"> 语音识别</h3> + +<dl> + <dt>{{domxref("SpeechRecognition")}}</dt> + <dd>语音识别服务的控制器接口;它也处理由语音识别服务发来的 {{domxref("SpeechRecognitionEvent")}} 事件。</dd> + <dt>{{domxref("SpeechRecognitionAlternative")}}</dt> + <dd>表示由语音识别服务识别出的一个词汇。</dd> + <dt>{{domxref("SpeechRecognitionError")}}</dt> + <dd>表示语音识别服务发出的报错信息。</dd> + <dt>{{domxref("SpeechRecognitionEvent")}}</dt> + <dd>{{event("result")}} 和 {{event("nomatch")}} 的事件对象,包含了与语音识别过程中间或最终结果相关的全部数据。</dd> + <dt>{{domxref("SpeechGrammar")}}</dt> + <dd>我们将要交由语音识别服务进行识别的词汇或者词汇的模式。</dd> + <dt>{{domxref("SpeechGrammarList")}}</dt> + <dd>表示一个由 {{domxref("SpeechGrammar")}} 对象构成的列表。</dd> + <dt>{{domxref("SpeechRecognitionResult")}}</dt> + <dd>表示一次识别中的匹配项,其中可能包含多个 {{domxref("SpeechRecognitionAlternative")}} 对象。</dd> + <dt>{{domxref("SpeechRecognitionResultList")}}</dt> + <dd>表示包含 {{domxref("SpeechRecognitionResult")}} 对象的一个列表,如果是以 {{domxref("SpeechRecognition.continuous","continuous")}} 模式捕获的结果,则是单个对象。</dd> +</dl> + +<h3 id="语音合成">语音合成</h3> + +<dl> + <dt>{{domxref("SpeechSynthesis")}}</dt> + <dd>语音合成服务的控制器接口,可用于获取设备上可用的合成语音,开始、暂停以及其它相关命令的信息。</dd> + <dt>{{domxref("SpeechSynthesisErrorEvent")}}</dt> + <dd>包含了在发音服务处理 {{domxref("SpeechSynthesisUtterance")}} 对象过程中的信息及报错信息。</dd> + <dt>{{domxref("SpeechSynthesisEvent")}}</dt> + <dd>包含了经由发音服务处理过的 {{domxref("SpeechSynthesisUtterance")}} 对象当前状态的信息。</dd> + <dt>{{domxref("SpeechSynthesisUtterance")}}</dt> + <dd>表示一次发音请求。其中包含了将由语音服务朗读的内容,以及如何朗读它(例如:语种、音高、音量)。</dd> +</dl> + +<dl> + <dt>{{domxref("SpeechSynthesisVoice")}}</dt> + <dd>表示系统提供的一个声音。每个 <code>SpeechSynthesisVoice</code> 都有与之相关的发音服务,包括了语种、名称 和 URI 等信息。</dd> + <dt>{{domxref("Window.speechSynthesis")}}</dt> + <dd>由规格文档指定的,被称为 <code>SpeechSynthesisGetter</code> 的 <code>[NoInterfaceObject]</code> 接口的一部分,在 <code>Window</code> 对象中实现,<code>speechSynthesis</code> 属性可用于访问 {{domxref("SpeechSynthesis")}} 控制器,从而获取语音合成功能的入口。</dd> +</dl> + +<h2 id="示例">示例</h2> + +<p>GitHub 上的 <a href="https://github.com/mdn/web-speech-api/">Web Speech API repo</a> 的示例程序展示了语音识别及合成。</p> + +<h2 id="规范">规范</h2> + +<table class="standard-table"> + <tbody> + <tr> + <th scope="col">规范</th> + <th scope="col">状态</th> + <th scope="col">描述</th> + </tr> + <tr> + <td>{{SpecName('Web Speech API')}}</td> + <td>{{Spec2('Web Speech API')}}</td> + <td>原始定义</td> + </tr> + </tbody> +</table> + +<h2 id="浏览器兼容性">浏览器兼容性</h2> + +<h3 id="语音识别_2"><code>语音识别</code></h3> + +<div class="hidden">此页面上的兼容性表格,是根据结构化数据生成的,如果您愿意贡献数据,请查看 <a href="https://github.com/mdn/browser-compat-data">https://github.com/mdn/browser-compat-data</a> 并发送 pull request 给我们。</div> + +<div>{{Compat("api.SpeechRecognition", 0)}}</div> + +<h3 id="语音合成_2"><code>语音合成</code></h3> + +<div>{{Compat("api.SpeechSynthesis", 0)}}</div> + +<div class="hidden">此页面上的兼容性表格,是根据结构化数据生成的,如果您愿意贡献数据,请查看 <a href="https://github.com/mdn/browser-compat-data">https://github.com/mdn/browser-compat-data</a> 并发送 pull request 给我们。</div> + +<h2 id="相关链接">相关链接</h2> + +<ul> + <li><a href="/en-US/docs/Web/API/Web_Speech_API/Using_the_Web_Speech_API">Using the Web Speech API</a></li> + <li><a href="http://www.sitepoint.com/talking-web-pages-and-the-speech-synthesis-api/">SitePoint article</a></li> + <li><a href="http://updates.html5rocks.com/2014/01/Web-apps-that-talk---Introduction-to-the-Speech-Synthesis-API">HTML5Rocks article</a></li> + <li><a href="http://aurelio.audero.it/demo/speech-synthesis-api-demo.html">Demo</a> [aurelio.audero.it]</li> +</ul> |