アカウント名:
パスワード:
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲは一日にしてならず -- アレゲ研究家
やはり、難しそう (スコア:1)
yasuhiko16 さんの他の作品も見ましたが、うまく出来ている
のと、そうでないものが有りますね。
うまくいっているのいは怖いぐらい。
決まった言葉なら、すももと琴子ができるかも?
(でも、録音とどう違うのよ>オレ)
イカロス
日本語音声学 (スコア:0)
アクセント 法則 窪薗晴夫 - Google 検索 [google.com]
英語、フランス語、ラテン語、古代ギリシア語の各音声学を
先に知っておくと判りやすいかもしれない。
成書にはあまり載っていない小ネタをいくつか。
1)話者の多い言語において(英語や日本語を含む)、ピッチ変化の度合いは男性よりも女性での方が大きい。
2)日本語文章の発話におけるピッチ変化は他言語と比べたときかなり大きい。
上の2点に従い、初音ミクでサンプリングされているフォルマントを用いつつ
若いもしくは幼い(私による10~25歳くらいという想定)女性の日本語発話を再現しようとするとき、
一文中で一オクターブ以上のピッチ変化が現れ得ることすら考慮する。
例えば子音 [k] で。
[ki] と [ku] の両者に現れる [k] の実際のスペクトログラムは大幅に異なる。
まあ、初音ミクでは同等に扱わざるを得ないのだが。
なので「かきくけこ」の全てで「ベロシティ調整」を変えつつ、
「か」ならば「か」での [k] の調整方向は揃える。
あ、そういえば「は行子音」だと 国際音声記号(IPA)表記からして異なるので判りやすい。
「は」「へ」「ほ」の子音、「ひ」の子音、「ふ」の子音。
この範囲ならば wikipedia にも載っている。
は [wikipedia.org]
ひ [wikipedia.org]
ふ [wikipedia.org]
特殊拍(「ん」「っ」「ー」、モーラ [wikipedia.org]およびと一部の二重母音での副音)は
文字記述と「初音ミクへの入力音」を変えておく。
例えば日本語の「ん」の音素表記は /N/ とされる。
日本語学習者向け説明ではまとめて鼻音化 (nasalization) とされることも多いが、
実際の発音には四通りの差がある。
五つあると聞いたこともあるのだが今は挙げることができない、すまん。
「とんぼ」の「ん」では [m]、「まんが」の「ん」では [ng]、
「れんたい」の「ん」では [n]、「れんあい」の「ん」では鼻音化
(IPA フォントなしで表示できるか判らんので X-SAMPA [wikipedia.org] を使うが、この場合 [4e~ai] になる。)。
日本語を母語とする者はこれらの発声パターンを無意識に使い分けている。
これは非日本語話者の大半が学習途中でぶつかる「壁」として有名。
こういうときこそ基礎力の有無がモノを言う。
あるいは「才能の無駄遣い」ともいう。
Re:日本語音声学 (スコア:1)
やろうと思いつつ、放置していた分野なので本を買って勉強してみます。
VOCALOID2 日本語発音記号 早見表(暫定版) [chomkoubou.com] (from VOCALOID2 調教メモ [chomkoubou.com])
を見ると、たしかに N の発音に6種類用意されてますね。
やっぱりみっくみっくになるしかないのかしら…
音声合成エンジンの辿ってきた道 (スコア:0)
日本語音声合成エンジンのしていることを
ハンドアセンブルで再現しようとしているかのような
なんとも面倒なことをしているな、と当方は感じる。
あまり VOCALOID にこだわらないほうがよさそうな気がしているヨ。
恐らく、いま現在に苦労しているノウハウはプラットフォーム自身に組み込まれるであろう。
そのころには VOCALOID 専用の小技は通用しないであろうが、
ちょうど「TK-80で培った基礎知識が役に立つ」と同じような位置づけの知識になるのではないかな。
そのころには音声学などを知っているのも開発者だけ、などということになるかもしれない。
などとケチをつけつつも、実際には私自身も「初音ミク」で遊んでいるわけだが。
正直言うと、入力デバイスに自分自身の声を使いながら
スペクトラを置き換えたりした方が圧倒的に早いんだよね、なにこの手間…
Re:音声合成エンジンの辿ってきた道 (スコア:1)
> 恐らく、いま現在に苦労しているノウハウはプラットフォーム自身に組み込まれるであろう。
そうですね(笑
たぶん、私の開発作業が「ロボットに喋らせる」というフェーズに到達するころには
ずっとましなソフトが出てくるだろうと思っています。
「喋り」以外にもやんなきゃいけないことが山積みな上に、私の進捗がまわりの3倍くらい遅いので…
> 正直言うと、入力デバイスに自分自身の声を使いながら
> スペクトラを置き換えたりした方が圧倒的に早いんだよね、なにこの手間…
Morph VOX Pro [screamingbee.com] (Voice Changerソフト)
とかでしょうか > スペクトラ置き換え
でも、本人が訛ってると変換しても訛ってたり…(汗
今日、ロボ関係の友人と呑んでいて、「自分の音声を録音して、解析して、ミクに喋らせればいいんじゃ…」という話が出ました。
そーいうソフトを作るのもまた楽しそうですね。(脱線ばっかり)
ドコモダケの歌 (スコア:0)
「第三フォルマントだけにピッチ差を付ける」といった調整ができないのが惜しい。
一般向けでは充分な機能なのだが。
リアルタイム声いじりの現時点での最高峰が「ドコモダケの歌」だろう。
アレの歌声は「若い女性の声」に聞こえるが、実際には岡田徹 [wikipedia.org]によるもの。
ライヴでも例の声で「なんだっけ」と一フレイズ歌って笑いを取っていた。
よほどのファンでなければそんなこと知らんがね、公式には「内緒」ということになっているので。
ちょっとだけ補足 (スコア:0)
この 2ch のスレなどでは日本語の高低アクセントとして「高い」「低い」の二種類で考えているが、
実際の会話例では四種類くらいで使い分けていると思ったほうがよい。
また、単語のアクセントは固定的ではなく、文中で前後の影響を受けながらアクティヴに変化している。
これは WaveTone [vector.co.jp] などを使ってみれば簡単に調べられる。
(北京語などの声調言語を母語とする日本語学習者にとってはコレが最大の難問だそうな。)
貴方もためし