L.Entisの日記: よく考えてみたら 1
日記 by
L.Entis
こっちのソフトシンセを聴いていて、母音 i, u は比較的違和感が無いのに対して、a, e, o は(特に延びると)かなり違和感があるように聞こえる。
子音のほうが音を作りやすいのかどうかはわからないけど、i, u は y とよく似た音(特にiはyとほとんど同じ?)だからだったりするのかな?
周波数分解すると、i なんかは、ピークが結構バラけてそうな感じがするけど、a, e, o なんて、かなり綺麗なピークが出そうな気がする。
(Entis 脳内イコライザではw)
なんでだろ・・・、i, u の方が情報量が多くて、多少変でもごまかしが効くからなのかな?
# LOLA Demo - Little Bird はよく読んだらボーカルは人間でした… orz
子音のほうが音を作りやすいのかどうかはわからないけど、i, u は y とよく似た音(特にiはyとほとんど同じ?)だからだったりするのかな?
周波数分解すると、i なんかは、ピークが結構バラけてそうな感じがするけど、a, e, o なんて、かなり綺麗なピークが出そうな気がする。
(Entis 脳内イコライザではw)
なんでだろ・・・、i, u の方が情報量が多くて、多少変でもごまかしが効くからなのかな?
# LOLA Demo - Little Bird はよく読んだらボーカルは人間でした… orz
比較的一目瞭然なので、 (スコア:0)
例えば、楽器音のシンセサイザが実現している周波数範囲よりも音声合成ソフトウェアが再現する周波数範囲は狭いので、バックトラックに比べて声が沈みます。子音に関してはサンプリングした音を利用できるのでこの限りでは無いのですが。
# 既存の音声合成は「人間がどう認識するか」が問題にされ、人間の発音機構の再現の方向に向いていないような気も。