アカウント名:
パスワード:
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
犯人は巨人ファンでA型で眼鏡をかけている -- あるハッカー
でも (スコア:1)
Re:でも (スコア:3, 参考になる)
以下,曖昧な知識で書くので,間違いがあればご勘弁&ご指摘下さい>識者な方。
VoiceXML自体は,「(○○というアクションをまず起こして,)△△と発声されたら,××というアクションを起こす」という対話の流れを記述するだけのものです。Webブラウジングなら,「リンクリストを表示して,あるリンクが発声により選択されれば,そのリンク先にとぶ」という感じですね。で,実際の使用では,音声認識エンジンと,(VoiceXMLを解釈して)アクションを実行するアプリが必要になります。
コールセンタの電話自動応答やCRM向けに,音声自動応答サーバが製品化されています。いくつかの製品では対話の流れを記述するためにVoiceXMLを利用しています。
MSが主導している SALT+.NET Speech SDK [srad.jp] は,.NET Speech SDKの部分で,アクションを実行するアプリを実装できます。音声認識エンジンもMS製のものが込みになっているはずです。
…イマイチ元発言の疑問に答えられていないような気がしますが,VoiceXMLはさておき,SALTに関して言えば,そのうち音声でブラウジングできるIEがリリースされるんだろうなあ,とか思っています。
さて。VoiceXMLを用いて音声認識アプリを作る場合,使うエンジンは何でも良い訳です。しかし,エンジンによって,グラマー(語彙リスト)の記述方法も異なりますし,エンジン特有の機能(オプション)なんかもあります。以前聞いた話だと,VoiceXMLではこの辺をどう指定するのか,特に決められていないそうです(使う音声認識エンジンに合わせて記述しわけるか,独自拡張するか)。VoiceXML 2.0ではこの辺どうなっているのでしょうか。
# というか,勧告案を読めば分かる話なので,週末にゆっくり読みます。