アカウント名:
パスワード:
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲは一日にしてならず -- アレゲ研究家
>部門名 (スコア:1)
ナレーションとか演技を機械ができるようになるのは、まだまだ先ではないかと。
#中国語みたいに歌うように発音する言語だったら、いけるんでしょうか
Re:>部門名 (スコア:0)
ナレーションをこなすぐらいのレベルには既に達していると思いますよ。 演技となると細かいチューニングが必要になってくるんでしょうが。
おしゃべりの向き不向き (スコア:1)
また、音声辞書を持つので、音声要素を吹き込む声優がやはり存在するわけです。
こうなったらその声優が演じていることと変わらなくなるわけで、かえって自由な音声利用に問題が生じる可能性があります。(肖声権 [arcadia.co.jp](下の方の注意書き)を主張するメーカーもある。)
特に音声に対する人格権とも言える部分は大切で、技術が十分発達すると、音素を提供した声優の意図しない「発声」が問題になる可能性もあるので、「誰でもない声」を生成する波形合成技術は重要だと思います。
波形合成っぽいのはAquesTalk [a-quest.com]というのをFA関連の会議室で教えてもらったのですが、PC-6601のものよりかなり進んでいるような気がします。が、どちらかといえば音声合成チップ組込みのための省リソース指向なので、このままでは演技は難しいかなぁ。
コーパスベースで「自由に」歌を歌わせるのは音声辞書の整理方法がどうなのよという問題もある(と思う)ので、「あのシンガーが歌ってくれる」ソフトは結構難しいかもしれません。