GPUは絶滅危惧種 149
ストーリー by nabeshin
専用と汎用の住み分けはいかに 部門より
専用と汎用の住み分けはいかに 部門より
tmp.tar.gz 曰く、
先週のAndo's Microprocessor Informationにて The Inquirerの GPUs are a dying breedという記事が取り上げられている。 GPUの性能は1〜1.5年に倍増というペースで向上しているが,ディスプレイのピクセル数の増加のペースはもっとゆっくりであり、更に 人間の目の解像度は実質上一定であり、リアルタイムで十分リアルな3D描画が出来るようになると、それ以上の進歩は必要なくなる。 その結果、GPU業界はこの崖に向かって全力疾走しており、オーディオカードが辿った道と同じということである。 確かにGPU業界はここ数年で收斂が進み、NVIDIAぐらいしか独立ベンダーとしてすぐ名前が出てこないが、 そのNVIDIAは高い成長を維持している。 いつかはAndo氏が言うようにCPUに集積ということで終わりな気もするが、それは何時の日のことだろうか。
消費電力 (スコア:4, おもしろおかしい)
Re:消費電力 (スコア:3, 参考になる)
あと携帯専用ではないですがATi(AMD)のImageon [amd.com]、 nvidiaの GoForce [nvidia.co.jp]なんかも。
そのときは (スコア:3, すばらしい洞察)
立体のあの娘をじっくり眺められるようになるのはいつかね。
Re:そのときは (スコア:1)
おすすめ。
2Dから3Dになったときみたい (スコア:3, 参考になる)
そこでは新たな方法論や理論が求められ、新たなパテントと新たなメーカーが勃興するのです。
Re:2Dから3Dになったときみたい (スコア:2, おもしろおかしい)
頭の漢字だけで「ほぉ、イリュージョンはまだまだやることがあるな」と勝手に脳内でコメントがレンダリングされた俺はもうだめだ。
# Teatimeの方が好みなのでAC
奥行きは無限大 (スコア:3, 参考になる)
「奥行きは無限大だから、GPUは今程度では頭打ちにならない」
ポリゴンで構成された3D空間中で、特定の視点から見た画像を描画する場合、GPUは「描画する」ポリゴンだけではなく「描画しない」ポリゴンも処理しなくてはいけません。
・視野の範囲の外にあるポリゴン
・他のポリゴンの陰に隠れているポリゴン
・小さすぎて点としての描画すら出来ないポリゴン
もちろん、これらを前処理で削っておく処理を行うことでGPUへの負担を減らす、という方法はすでにありますが、GPUがハイパワーになればその分別のことにCPUを使えます。最も端的な話、GPU自身がこの「前処理」もやってくれればいいわけですから(標準的なポリゴンのメモリ上への配置方法等を決めた上で、ね)。
というわけで、もうしばらくの間、GPUへの要求能力が頭打ちになる、などという事は無いでしょう。
ただし、一方でGPUが処理しなくてはいけない演算量はCPUのそれを凌駕しています。短期間にこれだけややこしいものを次々とリリースするのは、技術的にかなり難しく、故にベンダーの淘汰が進むと思います。が、それはGPUへの要求能力が頭打ちになって、価格競争になるから、ではありません。
# 価格競争はそれとは無関係に発生します。
fjの教祖様
Re:奥行きは無限大 (スコア:2, 興味深い)
っていう前提があるので、その度合いで頭打ちの場所も大きく変わるでしょう。
奥行きは無限だけど無限が必要かと言えばそうじゃない。
サウンドカード・オーディオカードの分野でも似たようなものです。
より情報量を多く、様々な補正・エフェクト機能を備え、なんてのにキリはない。
でも必要十分を満たしてその先の市場が無くなったラインは数年前に超えてしまいましたね。
個人的には3Dグラフィックも、あと3年くらいで頭打ちと思うのですが。
Re:奥行きは無限大 (スコア:2, 参考になる)
GPUの速度がもっと欲しい処理としてはモーションブラー処理 [wikipedia.org]なんてのもあります。
普通の「ポリゴン描画」のCGだと、静止画として見た場合に「十分リアルな3D描画」が出来てきてますけど、動く映像を見るとちょっと違和感を覚えることが多いです。
実写撮影した映像は露光時間の間の被写体の移動などが「ブレ」として画像に記録されてますが、
ポリゴン描画は「ある瞬間を切り取った絵」だけで動きが無いから。
ビデオカメラで高速シャッターをONにして撮影した映像を見たときの「ストロボモーションのような違和感」と言えば、わかる人も多いはず。
その対策で簡単なのは、もっと細かい時間間隔で作画した画像を合成すること。
例えば、1/600秒ずつ動いた10枚の画像を平均化して、1/60秒分の1枚の画像にするとか。
2~3倍でもだいぶ効果はありますが、できれば10倍、いや100倍ぐらいにしたい。
でも、そうなるとポリゴン描画能力も10倍、100倍要ります。
モーションブラー処理ってコストパフォーマンスが悪いんですよね。
今は、モーションブラーのために10倍計算量を増やすぐらいだったら、影や光の質感表現などの多重レンダリングに回して静止画としてのリアル度を向上させたほうが効果が高い。
もうちょっとGPUの性能が上がったら、モーションブラー処理を出来るので幸せになれそうです。
#ちなみに、ゲームとかで「一フレーム前の画像と合成する」という「残像処理」でモーションブラーっぽくしているものがありますが、
#「残像」と「モーションブラー」は別物。です。残像処理は計算量がほとんど増えないので手軽なんですが、見た目のリアル度は段違いなんですよね…
Re:奥行きは無限大 (スコア:1)
のために一般に60fpsが要求されるわけで、逆に言えば60fpsあれば一般的なオブジェクトは
「人間の視覚限界=ブレ」を含めて表現しきれると思うのですが……。
むしろ
>「動画としてみたリアルな3D描画」
よりも、
>「静止画として見たリアルな3D描画」
の方向にモーションブラー(=ブレの表現)はあるのだろうと思いますが、違うかな?
Re:奥行きは無限大 (スコア:4, 参考になる)
> 「人間の視覚限界=ブレ」を含めて表現しきれると思うのですが……。
そこは、
> ビデオカメラで高速シャッターをONにして撮影した映像を見たときの「ストロボモーションのような違和感」
を見てください、としか言いようがないですが、
24fpsだとか60fpsというのは、静止画の連続表示を「紙芝居」ではなく「動画」として認識させるためのフレームレートであって、「リアルな動画」を見せるのに十分なものではありません。
それでも実写撮影だと違和感が無いのは「ブレも含めて静止画像に落とし込んでいる」からです。
一方、人間の目というか認識機能には「残像」という効果がありますので、
ブレの無い離散的な画像を見せてしまうと、動画としてではなく個々の静止画が強調されて認識してしまうことになります。
例えば、ある物体が3/60秒かけて画面の右端から左端まで移動しているとしましょう。
実際に目で見た場合には、普通の人には動きが速すぎて「何かが動いていったけど、それが何だったのかよくわからない」ことになると思います。
実写撮影の場合やモーションブラーのある場合は、その物体のぼやけた絵が3コマ表示されますので「何かが動いていったけど、それが何だったのかよくわからない」が再現できます。
一方、ブレの無い画像で表示した場合、1/60秒ずつ「画面右」「画面中央」「画面左」にその物体がくっきりと表示されます。そうすると「残像効果」により、「一瞬、物体が三つ表示された」って認識されることになります。
Re:奥行きは無限大 (スコア:1)
その辺含めて一般利用者に「頭打ち」とそっぽ向かれるのはいつ頃だろう。
・・・・・・先ほどの「3年くらい?」から、あと2~3年くらい伸びる、かなぁ(完全に主観)
Re:奥行きは無限大 (スコア:2, 参考になる)
でも、ちゃんと撮るなら、絞るなりNDフィルタをつけるなりしてシャッター速度を落とすべきなのでしょう。
以下、参考になりそうな記事を紹介しておきます。
「今日もカメラは回る」/根岸泉
Roll 288 <フィルムとコマの話 その41> プライベート・ライアン
http://ammo.jp/weekly/neg/0709/neg070926.html [ammo.jp] 一部引用紹介。リンクを辿って全文と前後の記事を読むこととお勧めします。
Re:奥行きは無限大 (スコア:1)
Re:奥行きは無限大 (スコア:2, 興味深い)
オーディオカードの仕事は、基本的には他で作られたデータを再生して、若干のエフェクトを加えることです。PC上で全ての音を生成しているわけではありません(そういう用途もあるが、一般的ではない)。
一方で、3Dグラフィックはすべてのピクセルを生成しなければなりません。再生なのか、生成なのかは大きく違います。さらに処理すべきデーター量も圧倒的に違いますし。
もちろん、ビジネスアプリに必要なグラフィック能力にはとっくに達していると思いますが、ゲームなどエンターテイメント用途では、「もうやることがない」というレベルにはまだまだでしょう。
絵を描くだけがGPUではない (スコア:3, 興味深い)
5年以上前にも聞いたことがあったのですが、最近聴講した型技術協会のセミナーでも、自動車会社との共同発表で何件か出されていましたので、手広くやっているのでしょう。
原理は私も詳しいわけではないのですが、並列で似たような処理がたくさんあるような計算を、画素と見え方や色に置き換えてGPUで計算させる手法で、今まで計算量から現実的でないと思われていた計算方法に日の目が当たってくるおもしろい方法です。
物体と物体の干渉を視点から見えるか見えないかに置き換えたり、工作機械が素材とどのように接触するかを1枚の絵として置き換えたり、そのアイデアにおどろきました。
他意はないですがぐぐった結果ですが
http://www.smartec.co.jp/product/pdfs/CAM.php [smartec.co.jp]
によると
「CAMに用いられる曲面処理アルゴリズムをグラフィックの描画に置き換えることで~処理スピードの圧倒的な向上を実現しています」とのこと。
5年前に聞いたときは、安いGPUだとそれなりに手を抜いた計算をするので、こういう用途で使うときは精度検証が必要になるって話でした。今はまた状況が違うかも。
そもそも2Dの能力は十分だったのか? (スコア:3, 興味深い)
高解像度ディスプレイ & デュアルディスプレイが一部のユーザーに普及していくにつれて、
そのあまりの解像度の高さに2Dの能力不足が再び見え始めています。
GPUの能力的にもインターフェースの転送速度的にも。
1680*1050 1枚ぐらいだと一世代前のオンボードグラフィックチップが悲鳴を上げる程度ですが、
1920*1200 2枚とかになると昔ウィンドウがモタモタしていた頃の気分が味わえること請け合いです。
2D表示はクロック速度依存と言われるので、3Dとはアプローチが違う所が苦しそうですが、
これを隠蔽できるほどに一気に3Dのユーザーインターフェースが広まってしまうかどうかは気になります。
=-=-= The Inelegance(無粋な人) =-=-=
Re:そもそも2Dの能力は十分だったのか? (スコア:1)
高解像度・マルチディスプレーが「一部の」ユーザに使われているのはわかるのですが、これが一般化するのかどうかはかなり疑問。
そもそもこの狭い日本、家庭内にも職場にも、マルチディスプレーを置くスペースなんて、あるんかなぁ。すくなくともわが家にはないなぁ。大型薄型テレビでさえ躊躇しているレベル。
しかも最近の若い人は携帯のあの狭い画面で満足しているようにも見えるし。
特殊目的なら行く所まで行ってくれ、と思うが、今のようなレミング大行進がつづくようには思えない。。。
Re:そもそも2Dの能力は十分だったのか? (スコア:1, すばらしい洞察)
たとえば昔は携帯も2インチで140x200ピクセルだったのが、今は同じくらいの大きさでVGAになってるみたく。
もうすぐ13インチでフルHD液晶なんてのが出たりして。
解像度非依存UIにOSが追いついてないのが問題だなあ。(Mac OS Xは対応してるけど非公式だし、動かないソフトあるし)
Re:そもそも2Dの能力は十分だったのか? (スコア:1)
これからどんどん老眼になっていく私のような人間には、ついていけない、、、
でもね、これから高齢化社会。老眼の方がマジョリティになるのだよ、きっと、、、
#そうなったら、head-mount display かなぁ、、、
Re:そもそも2Dの能力は十分だったのか? (スコア:2, すばらしい洞察)
Clear Type技術を使わずに本当になめらかな文字や画像を表示するためにも使えるのです。
この為にはOS側に相当大掛かりな変更をほどこす必要があるでしょうし、
仮に今の4倍角にしたとするとあらゆる部分の処理が単純に4倍程膨れ上がることになるので、
おいそれと出来る訳ではありませんけどね。
従来の画像等にはフラグでも付けて単純に4倍表示すれば、一応互換性も保てるでしょう。
まあ、いずれなったらいいなぁ的世界です。
=-=-= The Inelegance(無粋な人) =-=-=
Re:そもそも2Dの能力は十分だったのか? (スコア:3, 参考になる)
Windowsは3.0とかそういった時代からずっとGUIの大きさを抽象単位で内部保持しています。
ただ、多くのアプリケーションがおおよそ96dpi程度を想定してドットに依存した設計をしてしまっています。
画面のプロパティーでDPIの設定を変えられますが、うかつに設定を変えるとレイアウトが崩れて使い物にならなくなるアプリケーションがはびこっています。
ファイルマネージャはDPIにスケーラブルでしたが、Explorerはアイコンのバランスが崩れてしまいます。
アクセサリの電卓などは、DPIの設定を大きくすればそれにあわせて大きく表示されます。
抽象単位で実装するより、DPIを固定で考えてビットマップを用意したほうが効率が良かったのでこんな状況になってしまっていますが、描画能力が向上したので、今後、印刷と同等の数百dpiというディスプレイでも、普通に文字が読めGUIが操作できるように、GUIのベクタグラフィック化も進んでいます。
以下に、MSが開発者向けに高DIPに対応したアプリケーションの記述方法について技術情報を出しています。
http://www.microsoft.com/japan/msdn/windows/windowsxp/highdpiapp.aspx [microsoft.com]
Re:そもそも2Dの能力は十分だったのか? (スコア:2, 参考になる)
それまでのWindowsCE は解像度320x240が基本でしたが、WM5では640x480になりました。
WM5で既存のアプリケーションを実行した場合、そのまま表示すると、画面の1/4に小さく表示されることになっちゃいますので、OS側の細工として
・グラフィック描画の単位系をピクセル単位で指定したつもりでも、内部で2倍に変換される(画像などを表示させると二倍に拡大)
・文字描画APIを実行した場合、座標指定単位は荒くなるが、描画内容は高解像度になる
ようになってます。
おかげで、旧OS用のアプリケーションでも、文字主体のものであれば見た目はそのまま高画質化します。
そのかわり、画像表示系アプリケーションは低画質のままで、高解像度化の恩恵を得られなくなります。
#その対策として、この変換処理をやめさせるVGA化 [google.co.jp]って処理もあります。正しく表示されなくなるアプリもありますが、ちゃんと高解像度表示されるのは綺麗で便利。
デスクトップWindowsでも、これと同種の仕組みを導入するのは難しくないんじゃないかな。
#結局「96dpiでのドット単位」という新たな抽象単位を導入するってことですけど…
Re:そもそも2Dの能力は十分だったのか? (スコア:1)
=-=-= The Inelegance(無粋な人) =-=-=
Re:そもそも2Dの能力は十分だったのか? (スコア:1)
最近のGPUと比較したらどのぐらいのレベルなんでしょうかね・・・
Re:そもそも2Dの能力は十分だったのか? (スコア:1)
Core Duoマシンを組んだもののオンボードVGAがなかったので、Millennium II PCIを刺してますよ。
80x24を表示するには十分すぎる性能です。
Re:そもそも2Dの能力は十分だったのか? (スコア:1)
ちょっと発熱がアレだけど、組んだ当時は定番中の定番だったのさ。
Re:そもそも2Dの能力は十分だったのか? (スコア:2, 興味深い)
Quadrupleに対応するのはDoubleじゃないですか。
double [wiktionary.org]、triple [wiktionary.org]、quadruple [wiktionary.org]… : n倍
dual [wiktionary.org]、trial [wiktionary.org]、quadral [wiktionary.org]… : n個の
2は double と dual を「double data rate」「dual core」って感じでちゃんと使い分けるのが普通ですが、
4は「quad data rate」「quad core」などと、どっちもquadと略して表現してる場合が多いですけど…
1ピクセル1ポリゴンで (スコア:2, 参考になる)
それ以上の性能って必要なんでしょうか?
教えて>エロイ人
# と思ったらRadeon9700で3億ポリゴン/sらしいので、描くだけなら1600x1200画面を156回/s埋められるのね。
# 無論描くだけじゃないんで実際はもっと遅いんだろうけど。
# 今って演算処理性能ばかりが取沙汰されるけど、要はもう埋めるだけの時代ではなくて
# 画質が追求されてるって事でしょうか?
Re:1ピクセル1ポリゴンで (スコア:3, 参考になる)
フォトショップのレイヤーを思い浮かべてもらえれば。
CGの質感というのはイロイロな効果があります。現在は汎用シェーダーという形で統合されていますが、たとえば肌を表現する場合、
・通常の陰影(デフューズ)
・光が強く当たっている(スペッキュラマップ)
・透過した光(サブサーフェイススキャッタリング)
・細かいでこぼこ(バンプマップ)
さらには光が強すぎる箇所には光学的なフレアを追加したりと。
肌一つとってもこれくらいシェーダー効果が必要と。
これらもできれば計算深度(ビット数)は増やしたいです。画面結果は24ビットでも荒れがでますし、暗いところでもよーくみればみえる、なんて表現もありえます。
さらには影を作る為には画面に映っていない部分から落ちることも想定されます。
ポリゴンを含むワールドを反射させるのだってホントはやりたい。
まあいずれは頭打ちするでしょうが、今のところはあればあっただけ使えるもんですね。
奥が深い。 (スコア:4, おもしろおかしい)
挙がったなかではバンプマップくらいしか知りませんでした。
最近の方向性をCPU側から見ると、やたら強力になったGPUを遊ばせておくのはもったいないから、
『3D計算してない時にはちょっと手伝ってもらえんやろか。』
ってな感じだとは思いますけどね。
# 逆にCPU側が手伝わされたりして。
## 「おい、暇だったら手伝ってくれ」
### 「暇に見えるなら眼科逝け!」
## 「おお、忙しそうだな。じゃ。」
### 「じゃ。じゃねぇ。手伝えコラ。」
## 「や、俺にも仕事が」
### 「じゃかまし!3.7m秒後までに残り1890万ステップ終えるまで帰さん。」
## 「マテ、3.7m秒も他のプロセス停める訳には」
# んなわけねぇ。
Re:1ピクセル1ポリゴンで (スコア:2)
私もよくわかってないんですけど、
純粋に画面分のポリゴンを毎秒60回描画できればよいかというと、そういう訳ではありません。たとえば、金属の玉にまわりの景色がうつりこむような環境マッピングの効果を実現しようとした場合、まずはまわりの風景をレンダリングしておき、それを球体のテクスチャとして描画するという2段階になります。
また最近はFull Screen Anti Aliasing もハヤリなんじゃないでしょうか。640x480のグラフィックを描画するために、(x2の場合)1280x960のスクリーンにレンダリングしたものを縮小することでジャギーを押さえる方法です。これだとレンダリングに要するコストは4倍になります。x3になるとコストは9倍ですね。
あと最近のエンジンは一回でレンダリング済ませるほど単純なデキじゃないみたいです。たとえば海を描画するときに、海面の光の反射だけを別に描画し合成することでよりリアルな演出をしていたりします。
今時のゲームはキレイですがあくまでも3Dはフェイクです。マシンの性能が上がってリアルタイムレイトレーシングとか使い出したら、まだまだマシンの性能は求められるんでしょうね。(そこまでする必要があるのかとか、そういう議論はナシで)
ex) 進化するHalf-Life 2エンジン(後編) [mycom.co.jp]
Takeshi HASEGAWA
Re:1ピクセル1ポリゴンで (スコア:1)
このレベルに達するまでは進化して欲しいなあ、と思います。
Re:1ピクセル1ポリゴンで (スコア:1)
Re:1ピクセル1ポリゴンで (スコア:1, 参考になる)
(また、Zバッファを用いた描画では、よほどレンダリング呼び出し側が頭が良い=計算の手間が掛かることをしてレンダリングしないと、不透明物体を書いた上に不透明物体を上書きする無駄が生じます。計算の手間が掛かると、その分AIその他の処理ができなくなるわけで。)
さらに、影生成用のシャドウマップ(光源一つに最低一つ、いろんな手法を使っても画面解像度よりも細かいくらいの解像度がのぞましい)、被写界深度用などのぼかし画像など、一枚の絵をレンダリングするのに、オフスクリーンではその数倍のレンダリングがされていることもあたりまえなわけで。
Re:1ピクセル1ポリゴンで (スコア:1, 参考になる)
ゲーム機だが、痛車で有名なあのゲームでも、表示は60fpsだが内部ではその6倍で処理してるそうな。
http://www.watch.impress.co.jp/game/docs/20070326/fm2.htm [impress.co.jp]
一般的には (スコア:2, 興味深い)
・Performance/Wattの改善(先にノート用の話が有りますが)
程度でしょうね。GPGPUに関してはCPUに統合されて終わりだろー、と
言われてますがGamingにおける物理演算などにはまだまだリソースが
使いきれないと思います。
非描画領域の干渉など、描画領域外の計算を考えればまだまだ使い道はあるかと。
消費電力は、ハイエンドが150Wとかアホな事になってるモノがそうそう
CPUにパッケージング出来るとは思えませんので、これもまだまだ。
なんか法則があったよね (スコア:2, おもしろおかしい)
CPUの機能を外部に切り出したら、効率がいいんじゃと誰かが考える
↓
CPUの性能があがる
↓
外部の機能をCPUの中にとりこんだほうが効率がいいんじゃと誰かが考える
↓
以下、ループ
っていうのがあった気がする。
# うろおぼえだけどID
コズミック・ジョーカー
Re:なんか法則があったよね (スコア:1, すばらしい洞察)
↓
クライアントが増える
↓
クライアントの管理が面倒になり、ホストで処理させた方が楽なことに気が付く
↓
以下、ループ
#世の中そんなものです。
頭打ち? (スコア:2, 興味深い)
今のnVidiaの最新鋭のGPUであるGeForce 8800ですら1人の人間の頭部だけをこの程度 [hatena.ne.jp]にレンダリングするだけで精一杯です。これ見て写真と勘違いできる人います?
あるいは2007年最高のCG品質を持ったゲームと言われるクライシスのプレイ動画 [4gamer.net]を見て、実写と勘違いできる人います?
そこら辺のCG映画は確かに実写と見分けがつかない品質ですが、あれはものすごいワークステーション使ってものすごい光散乱のシミュレーションをやって、わずか1枚の静止画をレンダリングするのにそれでも3分くらいはかけてます。
だからその壁を突破するだけで180×60で1万倍のGPU速度が必要であり、ワークステーションレベルを1枚のGPUに落とし込むのに相対的に更に数百倍分の技術革新が必要ですから、仮に促進型ムーアの法則が永遠に続いくとしても、すでに現に需要があって発達したCG理論だけでも、この先20年くらいは安泰ですよ。
所謂ゲーム系ではない3D静止画作成ソフトだと、本物の人間と見分けが付きづらい [cgsociety.org]程度の顔のレンダリングに個人のPCで何十時間もかかります。
この手の予言 (スコア:2, おもしろおかしい)
「将来的にもメモリは640キロバイトで十分」とか
画面解像度 (スコア:2, 興味深い)
当時の試作パネルは数千万円のコストがかかったと書いてあった気がしますが、現在のミニノートでは、10インチで横1024ドット(100dpi)などのかなり細かい液晶パネルが使われていますよね。
仮にこれが進歩して、4倍細かい400dpiで、たとえば20インチの液晶ができれば、解像度は8000×6000 ほどになるわけで、そういう方向に進めば、もっとGPUの活躍する場面は多くなると思います。
400dpiともなれば、アンチエイリアシングやクリアタイプは必要なくなるでしょうね。(むしろ本領を発揮するのかな?)
下手すりゃCPUより先は長い (スコア:1)
人間が新たな映像効果を生み出し続ける限り、ゴールはまだまだ見えないでしょうね。
Re:下手すりゃCPUより先は長い (スコア:1)
DirectX10以降はMSがGPUの規格の一部を統一しましたし
48bit Colorや4K対応へ (スコア:1)
非現実的な色深度や解像度が実現出来るようになる訳で、GPUの能力は、
しばらくの間、不足することになるのではないでしょうか。
一方PPUは (スコア:1, おもしろおかしい)
そろそろ誰か (スコア:1)
# ビデオの時間軸補正で「三次元」だった事を考えると、
# ポリゴンも時間軸補正とかやれば(何をやるんだ)
# 四次元になるんだろうか
Re:そろそろ誰か (スコア:3, おもしろおかしい)
リアルタイムレイトレーシング (スコア:1)
Just a whisper. I hear it in my ghost.
まだまだ (スコア:1)