パスワードを忘れた? アカウント作成
5979240 journal
日記

aitoの日記: 音楽情報科学研究会@金沢 2日目(8/10)デモセッションまとめ(見たものだけ)

日記 by aito

結構人がいっぱいで話が聞けなかったデモも多かった。とりあえず体験できたものだけ。

○patissier -アマチュア作詞家のための作詞補助システム(阿部ちひろ)
1日目に発表したあべちさんの作詞補助。ツイッター連動で、作詞したフレーズをつぶやく。できた作品に賞をあげる予定だったのだが、中の人の仲間たちがサボっていたせいでうやむやになったらしい。

○地図上で複数人で観光地のBGMを生成するシステム(安藤大地)
Google Mapに投稿された写真から特徴量を抽出し、それを元に進化計算をして算出したパラメータをもとに音合成をしてBGMとして流すシステム。全部がJavaScriptで書かれているそうだ。面白いと思うのだが操作が直感的でなく、進化計算のところは「操作するとなにかが起きるのだが、なにが起きたのかよくわからない」という状態。惜しい。

○Drive Mind-触覚で想像力を高める. 光の屈折を使用したサウンドアート(遠藤秀行)
LEDライトの光をアクリルブロックで屈折させると、それに応じてブリブリ言うシステム。屈折させたシステムを黒っぽい板に投影して、それをWebカメラで撮影した上で、輝度が最大になる点の2次元座標をもとに音を合成している。もうちょっとかわいい音を合成すればいいのに。

○両腕運動を用いた歌唱音声合成システム(伊藤仁,鈴木拓也,杉山卓也)
3次元磁気センサを両手に持って、手の動きでいろいろな音の高さや大きさの母音を合成する。声のテルミンみたいな感じ。熟練すると歌を歌わせることができるが、母音だけなのでテルミンでディレイラマを操っている感じ。デモのあとで仁先生とヤマハの才野さんと話をしていたのだが、操作している本人が歌いながら腕の動きでバックコーラスをさせたらいいんじゃないだろうか。

○Polyhymnia:ピアノ曲の自動演奏システム(伊東直哉, 深山覚, 齋藤大輔, 嵯峨山茂樹)
人大杉で聞けなかった。Polyhymnia自体は以前発表で聞いた(RenConにも出ていた)。

○PEVI:SCAPEPLOTを利用したクラシック音楽の演奏表情検索・分析インタフェース(三木翔太,馬場隆,片寄晴弘)
これも人が多くて聞けなかった。

○Clairvoyant:モスキート音に基づく電子透かしを用いた歌詞連動型音楽試聴システム(森勢将雅,山下洋一)
1日目に聞いたシステム。17kHz以上に情報を埋め込み、空気伝搬でスマートフォンに歌詞とURLを提示する。デモ曲はなぜか修羅場Pの曲が多かった(仲良しさんだからかな)。想像以上にロバスト。埋め込み信号のレベルは80dBぐらいだそうで、そうとう大きい音が出ているはずなのだが全く聞こえない。加齢バンザイ。

音響入力版Eurydice: 誤り・反復を含む演奏を入力とする自動伴奏システム(中村友彦, 水野優, 鈴木孝輔、中村栄太, 樋口祐介, 深山覚, 嵯峨山茂樹)
人が多くて聞けなかった。

○耳コピ訓練を支援する対戦型ゲーム「Sound-PazzleBattle」(岡田美咲, 山下雄史, 北原鉄朗)
音楽の聞き分けをベースにした対戦型ゲーム。3パートからなる4小節のフレーズを聞いて、そのあと各パートの各小節からなる12のピースを二人のプレイヤーが交互に聞き、それがどのパートのどの小節かを当てて、ポイントを競う。平賀先生が「ソルフェージュとは違うんじゃないの」とおっしゃっていた。神経衰弱みたいでゲームとしてもなかなか楽しいんだけど、エデュテインメントとしてこれでいいのかはよくわからない。

○レコむし:画像の感じ方に基づく楽曲推薦システム(佐々木将人, 平井辰典, 大矢隼士, 森島繁生)
聞けなかった。

○BandNavi HD(澤田真吾,浜中雅俊)
ロックバンドマニアのためのシステムBandNaviのデラックス版。あるバンドに注目すると、そのバンドに所属していたりコラボしたことのあるアーティストをたどることで音楽を発見するのがBandNaviだが、HDではそれをグラフ表現で可視化する。可視化画面とナビ画面が連動してないのが今ひとつ過ぎる。

○Euterpe 1.1: 自動カラオケ(マイナスワン)生成システム(橘秀幸, 水野優, 小野順貴, 嵯峨山茂樹)
嵯峨山研で研究していたボーカルと伴奏の分離技術(スペクトログラム上でふにゃふにゃしている成分をボーカルとして分離する)を使ってボーカル音の強調・除去を行うシステム。ボーカル音の操作幅は4dBだそうで、思ったほどカラオケになってない。懇親会の時に橘さんと少し話をしたが、通常の2チャンネルでの位相キャンセルによる普通のカラオケ化手法と組み合わせて使ったらどうなんだろう。

○弦楽器のためのミュート判定支援システム(飛世速光)
先ほど発表を聞いたギターの触弦判定システム。弦に触れたかどうかと、抑えたかどうかを判定するのだが、触れたかどうかは静電容量を使うので、思った以上に不安定で、きちんと持たないと判定しなかったり、あるいは触れてないのに触れたと判定されたりしていた。頑健性の向上は発表内では触れられていなかったけど、問題じゃないのかなあ。

○MALL: ライフログに基づく推薦機能を備えたポータブル音楽プレイヤー(宇野愛,伊藤貴之)
音楽を聞いた日時や時間をライフログとして記録し、状況に応じて過去の似た状況で聞いていた音楽を推薦するという構想。パーソナルな利用を想定しているみたいだけど、推薦ができるほどデータがたまるのに随分時間がかかるんじゃなかろうか。毎日使い始めて3年後から動き始めるみたいな。多人数のデータからマイニングして推薦するみたいな仕組みが必要な気がする。

○GRAPE : グラデーション画像によるポータブルビジュアルプレイリスト(魚田知美,伊藤貴之)
音楽ではなく音楽プレイリストをまるごと可視化する。プレイリスト内の音楽から音響特徴量を計算し、それを類似度に応じてSOMにより2次元グリッド上に配置し、音響特徴量を直接変換した色を書く音楽に割り当てる。全体として、なんとなく色がついた2次元ビットマップができる。どういう曲にどういう色を割り当てれば直感的かについてはあまりよく考えていないらしく、その点いまひとつ。

○環境音合成システム(山田祐雅)
小坂先生の所でやっている環境音のデータベースを可視化して分類しやすくしたり、オノマトペで検索したりして、それを並べていろいろな音を制作することができる。エフェクトをかけたりも可能。環境音(というか効果音みたいな)合成だが、最終的に誰のためにどういうことが可能になるのかが不明確だと思った。

○Eurydice: 弾き飛ばし・弾き直しを含む演奏に追従する自動伴奏システム(山本龍一,中村栄太,齋藤康之,酒向慎司,嵯峨山茂樹)
自動伴奏。自分では試さなかったが、他の人のを聞くと結構うまく追随しているようだ。

○TonalityTouch(白松俊,大囿忠親,新谷虎松)
飛び入り。いろいろな音律を自動生成して、タッチパネルを触ることでその音が出る。タッチパネルは黒いだけなので、演奏は難しい。音律の学習用なんだろうか。

○歌声声質変換システム(土井啓成,戸田智基,中野倫靖,後藤真孝,中村哲)
飛び入り。1日目に聞いたシステム。スキンヘッドの土井さんが歌うと初音ミクの声に変換される。歌声でモデルを作っているのだが、思った以上に話声でも変換されていると思った(ヘッドホンで聞くと印象が違うのかもしれない)。「初音ミクなりきりマイク」とかいいよね。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
typodupeerror

弘法筆を選ばず、アレゲはキーボードを選ぶ -- アレゲ研究家

読み込み中...