アカウント名:
パスワード:
「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」といったな問題に解答することが現時点では難しいという意味だろうけど。囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。
いわゆる人工知能の「フレーム問題」という奴ですね。囲碁や将棋がブレイクスルーできたのは、単に有限・完全情報ゲームだったからですね。ポーカーや人狼のような不完全情報ゲームですら、まだまだこれからの研究課題になってるレベルですからね。東大の試験なんか、いわんやですね。
セマンティックな部分を言うなら記号着地問題の方では。その辺りを力業でどーにかしてるのが今のディープラーニングでしょう。
#1970年代頃のコンピュータ万能論がそのまま今のAI万能論に#置き換わってるだけに思えて・・・
でも自分自身や周りの人を見てると、人間だってフレーム問題なんて全然解決できてねーな、と思えるような事ばっかだけどね。それともこれが「大人のADHD」とかいうやつなのかな本当に一般の人間はフレーム問題を解決してるの?
「 また,フレーム問題は人間でも解決できるわけではありません.思いもよらないことで事故がおきるのは安全くん1号と同じ状況ですし,知らない場所へ連れて行かれてとまどってしまい何もできないのは安全くん2号と同じ状況です.
フレーム問題は本質的に解決できませんが,人間は普段この問題に遭遇しません.ですので,人間と同様にあたかもフレーム問題を解決しているかのように,人工知能がふるまえるようにすることが研究の目標となります.」https://www.ai-gakkai.or.jp/whatsai/AItopics1.html [ai-gakkai.or.jp]だってさ。つまり解決してないが、それがそんなにバレない程度には振る舞えている。
>解決してないが、それがそんなにバレない程度には振る舞えている。
お、俺はちゃんと理解したうえで、い、言ってるし
ディープラーニングとかはコンピューターに「考えるな、感じるんだ!」と教え込んでいるような物だろうしなあ
例えば、ディープ君:「これとこれは似ていますよね。根拠ですか?ランダムフォレストの決定木とスパースコーディングの辞書はお渡しできます。論理的?何それ食えるの?」のような。
フレーム問題とかは、人間にしても、「ここは台所だから魚を焼いたり、調理をする場所ですよね」と認識するというよりは(あなたはそう認識しているのかもしれないが)、エピソード記憶の連想を行っていて、「この視覚的情報、この匂い、ここでは魚を焼いていたよな」とか「感じて」いるんじゃないの?
じゃあ、時系列情報を連想記憶できるようにしてみれば、「ここは台所ですね?何か作りますか?」とかフレーム問題とか抜きでディープ君に言わせる事はできるんじゃないかなあ
「ここは台所ですね?チャーハンAAを貼りますか?」と言ってくる物が出来るかも知れないが
>間違いを許容させれば
その許容範囲をどうとるかって部分でフレーム問題にぶち当たりますね。
フレーム問題が解決した状態ってのはなるべく幅広い任意の入力に対して飽和しない高次の配列を返すモデルがある状態だろ。今のAI研究は入力と出力次元が一致するか小さくなるものがほとんどだ。つまりむしろ意味を丸めて落として曖昧にしている。的外れだと思うな。
囲碁だって全部の可能性について考えてるわけじゃないでしょ
MCTS にせよ強化学習にせよ「単に有限・完全情報ゲーム」とやらに限らず適用可能だね
東大の試験なんか、いわんやですね。
合格するかも知れないが、採点は難しい、とか言ってなかったかな。模範解答と、支離滅裂な回答との区別をつけられるかって話。
以下引用 http://www.mext.go.jp/b_menu/shingi/chousa/shotou/110/gijiroku/1370083.htm [mext.go.jp]
模範解答「コロンブスはイザベラ女王と、その夫フェルナンドの支援により、1492年サンタマリア・ニーナ・ピンタの3隻の船でアメリカ大陸に向けて航
興味深いリンクありがとうございます。(長いのでまだ読んでいませんが)
意味が理解できれば、要約もできるし、正答もできる、同じ内容を別の文章で説明できる、意味のおかしな文章を判定できる、修正できる、
ソースコードが読めて理解できれば、プログラムも作成できる。デバッグや改変・修正も自動でできる、はず。
おそらく、意味理解には難度の高い要素が複数含まれて絡み合っているから、簡単には行かない。
予測という面で捉えたら少しは何とかなるような気がするけど、どうかな。言いたいことは何か、予測する。相手の心を予測する(心の理論)。みんなの考えそうなことは何か予測する(常識)。囲碁・将棋で相手の次の手を予測する、みたいなことは、いまでもやればかなりできそう。そして、予測にはフレーム理論が関係する?明日の天気は晴れ、雨、曇、雪? 小惑星が衝突します、みたいな。
×そして、予測にはフレーム理論が関係する?○そして、予測にはフレーム問題が関係する?
固有名詞を隠しても、「支離滅裂な回答」の後半、....に巨大な富を持っていることを知っていたが、....から香辛料を獲得することを我慢せざるを得なかった。というところは少しおかしい、つまり、文章としておかしい。だから識別が不可能ではないはず、のような気がします。いまのAIではできないのだろうけど。
支離滅裂な回答「a1の女王は1492隻の船でa2へ航海した。彼女の夫、a3王は、インディアンの探検家a4がa5海岸に巨大な富を持っていることを知っていたが、a6大陸から香辛料を獲得することを我慢せざるを得なかった」
模範解答「a3はa5女王と、その夫a6の支援により、1492年a2・a4の3隻の船でa1大陸に向けて航海した」
簡単でしょ。1492とせきor年のきょうきかんけいを調べればいい。余裕でしょ。概念とかいう金にならないゴミは放置すれば良い。
支離滅裂な回答の事例かと思ったぜ
少なくとも人間なら間違いであるかどうか検討したり議論したりできる場合でも、現状の「AI」にはそれができない。人間が意味を理解しているとは必ずしも言えないかもしれないが、今のAIはそれよりも、より低いレベルでしか理解してないのは明らか。#ここで言ってるAIって、AlphaGoとかGoogle翻訳とかの、あのレベル前提だよな。#遠い未来だったり、宇宙人が作ったオーバーテクノロジーは含まない。#なぜか過大評価するデマニュースとかが多いんで、広まらないよう釘を刺したんだろう。
>囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。そりゃ解答はできるさ。AlphaGoは盤面のどこかに石を置くようにプログラムされてるんだから。そういう意味ではN択の選択問題で、適当に丸を付けるだけの簡単なお仕事なんだから。そんなのは囲碁ド素人の俺にだって出来る。バカにだって出来る。解答するだけなら「人工知能」ではなく、「人工無能」の領域だ。
問題は、その解答が知的で適切なものであるかどうかだ。たとえば有名なイセドルの第四戦では、適切な解答ができなかった。AlphaGoは、そのことに気付いてさえいなかったんじゃなかったっけ。#本当は正解と言いたい所だが、囲碁に「正解」はないから。
AlphaGo に負けたプロ棋士たちは、「知的で適切な」解答をして負けたんですね、わかります。相手が予想外の手を返してきて固まってしまう棋士たちは無能なんですね?
# なんか、人工知能が(部分的にでも)人間を超えていることを、何が何でも# 認めたくないという気持ちを持っているということが、ひしひしと伝わってくるなあ。
お前は何を言ってるんだ。
http://nlab.itmedia.co.jp/nl/articles/1603/13/news029.html [itmedia.co.jp] 「前半は「AlphaGo」有利で展開していましたが、中盤、李世ドル九段に妙手を打たれ形成が逆転。「AlphaGo」はそこから盛り返すことができず、後半は一転、李世ドル九段の圧勝ムードとなりました。Google DeepMindのCEO、Demis Hassabis氏は対局を振り返り、「AlphaGoはプレッシャーでミスをした」「ミスは79手目だったが気づいたのは87手目だった」とツイートしています。」
http://nitro15.ldblog.jp/archives/47082138.html [ldblog.jp] 「デミス:AlphaGoの手が後ほど妙手である事もあるがそ
だから、最強のプロ棋士だって日常的に同じ間違いをしてるんだっての。AlphaGo の4局目の間違いが、AlphaGo が人間レベルに達していない理由になるなら、プロ棋士は人間レベルに達していないってことになるんだけど?
>AlphaGo の4局目の間違いが、AlphaGo が人間レベルに達していない理由になるなら、そんな話は全くしてないぞ。曲解するのもいい加減にしろ。
「過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。」 →「そりゃN択問題なんだから解答だけならできる。」
人間だろうとAIだろと、知性の基準として「選択問題に丸がつけられるか」は全くの無意味。
なおAlphaGoの第四戦での部分があまりに酷かったという点では、囲碁棋士たちの意見がほぼ一致している。人間のプロ棋士なら、同様のミスをすることはまずありえないレベルだそうだ。#「実際にAlphaGoは悪手を打っていないのか?」については意見が分かれる所。#今までは悪手と見える手を打っていても、いつの間にかなぜか勝っていたから、#それも全ては布石と好意的に解釈されていた可能性がある。#悪手を打とうと、最終的に勝てればそれでいだろなのだ。
Alpha GO は、「19x19の盤面のどこに石を置くかを求めろ」というところまでは人間が指示を出しているし、「答えが正しいかどうかは評価関数で判定してる」わけで。
> 「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」
これに AlphaGO のアプローチを適用するならば、「どういう順番で豆が落ちるかを求めろ」というところまでは人間が指示を出したうえで、既存の「豆が落ちる順番を答える問題」について正当を学習させた上で、さらに、何万問もの「豆が落ちる順番を答える問題」を自動生成して、それを学習させるって方向になりますかね。
それが出来れば、結構な精度で「豆が落ちる順番を正しく答える」こと出来るものになる気がしますが、そもそも、今の所は「模範解答込みな問題の自動生成」なんてまあ無理でしょうねぇ。
ろうそくに火が付いているかどうかくらいは書いてあげなさいよ…
「ロウソクに火がつくと何が変わるんですか?」というのも、教えなければならない知識の一つなんだなあ。先は長いわ。
#「熱湯に触ると火傷するから危険」みたいなのも、人間の子供にも教えてやらないと分からない。#味覚や痛覚はあるとはいえ、それこそ赤ん坊なんて、なんでも口に入れるしねえ。
人間も回答出すのは難しいのでは?条件によっては豆が落ちない可能性もあるのだし。
> 「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」といったな問題
「いったな問題」だから、「いえ、言ってません」が正解……というのはひねくれすぎてて、マジ回答すると、場所とは関係なく「そら豆」→「大豆」→「グリーンピース」→「レンズ豆」の順に落ちます。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
普通のやつらの下を行け -- バッドノウハウ専門家
クオリア論の延長? (スコア:2)
そもそも人間自身「自然言語の意味を理解」していると言えるだろうか?
哲学的ゾンビは本当に哲学的ゾンビなんだろうか?
Re:クオリア論の延長? (スコア:1)
「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」といったな問題に解答することが現時点では難しいという意味だろうけど。
囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。
Re:クオリア論の延長? (スコア:1)
いわゆる人工知能の「フレーム問題」という奴ですね。囲碁や将棋がブレイクスルーできたのは、単に有限・完全情報ゲームだったからですね。
ポーカーや人狼のような不完全情報ゲームですら、まだまだこれからの研究課題になってるレベルですからね。東大の試験なんか、いわんやですね。
Re:クオリア論の延長? (スコア:3)
セマンティックな部分を言うなら記号着地問題の方では。
その辺りを力業でどーにかしてるのが今のディープラーニングでしょう。
#1970年代頃のコンピュータ万能論がそのまま今のAI万能論に
#置き換わってるだけに思えて・・・
如何なる内容であろうとACでの書き込みは一切無視します。
Re:クオリア論の延長? (スコア:2, 興味深い)
でも自分自身や周りの人を見てると、
人間だってフレーム問題なんて全然解決できてねーな、と思えるような事ばっかだけどね。
それともこれが「大人のADHD」とかいうやつなのかな
本当に一般の人間はフレーム問題を解決してるの?
Re:クオリア論の延長? (スコア:3, 参考になる)
「 また,フレーム問題は人間でも解決できるわけではありません.思いもよらないことで事故がおきるのは安全くん1号と同じ状況ですし,知らない場所へ連れて行かれてとまどってしまい何もできないのは安全くん2号と同じ状況です.
フレーム問題は本質的に解決できませんが,人間は普段この問題に遭遇しません.ですので,人間と同様にあたかもフレーム問題を解決しているかのように,人工知能がふるまえるようにすることが研究の目標となります.」
https://www.ai-gakkai.or.jp/whatsai/AItopics1.html [ai-gakkai.or.jp]
だってさ。つまり解決してないが、それがそんなにバレない程度には振る舞えている。
Re:クオリア論の延長? (スコア:2)
関心とつながりを動的に強くしたり弱くしたり,っていうのはできそうだし,
実際やってそうなんだけどね。
Re: (スコア:0)
>解決してないが、それがそんなにバレない程度には振る舞えている。
お、俺はちゃんと理解したうえで、い、言ってるし
Re: (スコア:0)
ディープラーニングとかはコンピューターに「考えるな、感じるんだ!」と教え込んでいるような物だろうしなあ
例えば、
ディープ君:
「これとこれは似ていますよね。根拠ですか?ランダムフォレストの決定木とスパースコーディングの辞書はお渡しできます。論理的?何それ食えるの?」
のような。
フレーム問題とかは、人間にしても、「ここは台所だから魚を焼いたり、調理をする場所ですよね」と認識するというよりは(あなたはそう認識しているのかもしれないが)、
エピソード記憶の連想を行っていて、「この視覚的情報、この匂い、ここでは魚を焼いていたよな」とか「感じて」いるんじゃないの?
じゃあ、時系列情報を連想記憶できるようにしてみれば、
「ここは台所ですね?何か作りますか?」
とかフレーム問題とか抜きでディープ君に言わせる事はできるんじゃないかなあ
「ここは台所ですね?チャーハンAAを貼りますか?」と言ってくる物が出来るかも知れないが
Re:クオリア論の延長? (スコア:1)
Re:クオリア論の延長? (スコア:2)
間違いを許容させれば,10年ほどで,人間とさほど変わらなくなるような気がしますけどね。
で,そもそも意思の疎通さえ図れれば,AIが人間と同じである必要はないですけどね。
Re:クオリア論の延長? (スコア:2)
>間違いを許容させれば
その許容範囲をどうとるかって部分でフレーム問題にぶち当たりますね。
如何なる内容であろうとACでの書き込みは一切無視します。
Re:クオリア論の延長? (スコア:4, 参考になる)
今のAI研究の限界なんでしょうね。
だから新井教授が言っていることも事実なんですよねえ。
ただ,限界を認識したとしても,
今の段階ではAIに曖昧さを求めるようなフェイズまで来てませんから
今の研究を限界までがんばってもらうしかないんでしょうけど。
Re: (スコア:0)
フレーム問題が解決した状態ってのはなるべく幅広い任意の入力に対して飽和しない高次の配列を返すモデルがある状態だろ。
今のAI研究は入力と出力次元が一致するか小さくなるものがほとんどだ。つまりむしろ意味を丸めて落として曖昧にしている。的外れだと思うな。
Re: (スコア:0)
囲碁だって全部の可能性について考えてるわけじゃないでしょ
Re:クオリア論の延長? (スコア:1)
MCTS にせよ強化学習にせよ「単に有限・完全情報ゲーム」とやらに限らず適用可能だね
Re: (スコア:0)
東大の試験なんか、いわんやですね。
合格するかも知れないが、採点は難しい、とか言ってなかったかな。
模範解答と、支離滅裂な回答との区別をつけられるかって話。
以下引用
http://www.mext.go.jp/b_menu/shingi/chousa/shotou/110/gijiroku/1370083.htm [mext.go.jp]
模範解答
「コロンブスはイザベラ女王と、その夫フェルナンドの支援により、1492年サンタマリア・ニーナ・ピンタの3隻の船でアメリカ大陸に向けて航
意味って何? その一部は予測・予想? (スコア:1)
興味深いリンクありがとうございます。(長いのでまだ読んでいませんが)
意味が理解できれば、
要約もできるし、
正答もできる、
同じ内容を別の文章で説明できる、
意味のおかしな文章を判定できる、修正できる、
ソースコードが読めて理解できれば、プログラムも作成できる。
デバッグや改変・修正も自動でできる、はず。
おそらく、意味理解には難度の高い要素が複数含まれて絡み合っているから、簡単には行かない。
予測という面で捉えたら少しは何とかなるような気がするけど、どうかな。
言いたいことは何か、予測する。
相手の心を予測する(心の理論)。
みんなの考えそうなことは何か予測する(常識)。
囲碁・将棋で相手の次の手を予測する、みたいなことは、いまでもやればかなりできそう。
そして、予測にはフレーム理論が関係する?
明日の天気は晴れ、雨、曇、雪? 小惑星が衝突します、みたいな。
Re:意味って何? その一部は予測・予想? (スコア:1)
×そして、予測にはフレーム理論が関係する?
○そして、予測にはフレーム問題が関係する?
Re:クオリア論の延長? (スコア:1)
固有名詞を隠しても、「支離滅裂な回答」の後半、
....に巨大な富を持っていることを知っていたが、....から香辛料を獲得することを我慢せざるを得なかった。
というところは少しおかしい、つまり、文章としておかしい。だから識別が不可能ではないはず、のような気がします。いまのAIではできないのだろうけど。
支離滅裂な回答
「a1の女王は1492隻の船でa2へ航海した。彼女の夫、a3王は、インディアンの探検家a4がa5海岸に巨大な富を持っていることを知っていたが、a6大陸から香辛料を獲得することを我慢せざるを得なかった」
模範解答
「a3はa5女王と、その夫a6の支援により、1492年a2・a4の3隻の船でa1大陸に向けて航海した」
Re: (スコア:0)
簡単でしょ。
1492とせきor年のきょうきかんけいを調べればいい。
余裕でしょ。
概念とかいう金にならないゴミは放置すれば良い。
Re: (スコア:0)
支離滅裂な回答の事例かと思ったぜ
Re:クオリア論の延長? (スコア:1)
少なくとも人間なら間違いであるかどうか検討したり議論したりできる場合でも、現状の「AI」には
それができない。人間が意味を理解しているとは必ずしも言えないかもしれないが、今のAIはそれよりも、
より低いレベルでしか理解してないのは明らか。
#ここで言ってるAIって、AlphaGoとかGoogle翻訳とかの、あのレベル前提だよな。
#遠い未来だったり、宇宙人が作ったオーバーテクノロジーは含まない。
#なぜか過大評価するデマニュースとかが多いんで、広まらないよう釘を刺したんだろう。
>囲碁においては「盤面の意味を理解することは難しく、過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。
そりゃ解答はできるさ。
AlphaGoは盤面のどこかに石を置くようにプログラムされてるんだから。
そういう意味ではN択の選択問題で、適当に丸を付けるだけの簡単なお仕事なんだから。
そんなのは囲碁ド素人の俺にだって出来る。バカにだって出来る。
解答するだけなら「人工知能」ではなく、「人工無能」の領域だ。
問題は、その解答が知的で適切なものであるかどうかだ。
たとえば有名なイセドルの第四戦では、適切な解答ができなかった。
AlphaGoは、そのことに気付いてさえいなかったんじゃなかったっけ。
#本当は正解と言いたい所だが、囲碁に「正解」はないから。
Re: (スコア:0)
AlphaGo に負けたプロ棋士たちは、「知的で適切な」解答をして負けたんですね、わかります。
相手が予想外の手を返してきて固まってしまう棋士たちは無能なんですね?
# なんか、人工知能が(部分的にでも)人間を超えていることを、何が何でも
# 認めたくないという気持ちを持っているということが、ひしひしと伝わってくるなあ。
Re: (スコア:0)
お前は何を言ってるんだ。
http://nlab.itmedia.co.jp/nl/articles/1603/13/news029.html [itmedia.co.jp]
「前半は「AlphaGo」有利で展開していましたが、中盤、李世ドル九段に妙手を打たれ形成が逆転。「AlphaGo」はそこから盛り返すことができず、後半は一転、李世ドル九段の圧勝ムードとなりました。Google DeepMindのCEO、Demis Hassabis氏は対局を振り返り、「AlphaGoはプレッシャーでミスをした」「ミスは79手目だったが気づいたのは87手目だった」とツイートしています。」
http://nitro15.ldblog.jp/archives/47082138.html [ldblog.jp]
「デミス:AlphaGoの手が後ほど妙手である事もあるがそ
Re: (スコア:0)
だから、最強のプロ棋士だって日常的に同じ間違いをしてるんだっての。
AlphaGo の4局目の間違いが、AlphaGo が人間レベルに達していない理由になるなら、
プロ棋士は人間レベルに達していないってことになるんだけど?
Re: (スコア:0)
>AlphaGo の4局目の間違いが、AlphaGo が人間レベルに達していない理由になるなら、
そんな話は全くしてないぞ。曲解するのもいい加減にしろ。
「過去に学習していない問題やパターンに突き当たると、解答できない」てことはなかったわけだが。」
→「そりゃN択問題なんだから解答だけならできる。」
人間だろうとAIだろと、知性の基準として「選択問題に丸がつけられるか」は全くの無意味。
なおAlphaGoの第四戦での部分があまりに酷かったという点では、囲碁棋士たちの意見が
ほぼ一致している。人間のプロ棋士なら、同様のミスをすることはまずありえないレベルだそうだ。
#「実際にAlphaGoは悪手を打っていないのか?」については意見が分かれる所。
#今までは悪手と見える手を打っていても、いつの間にかなぜか勝っていたから、
#それも全ては布石と好意的に解釈されていた可能性がある。
#悪手を打とうと、最終的に勝てればそれでいだろなのだ。
Re:クオリア論の延長? (スコア:1)
Alpha GO は、「19x19の盤面のどこに石を置くかを求めろ」というところまでは人間が指示を出しているし、「答えが正しいかどうかは評価関数で判定してる」わけで。
> 「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」
これに AlphaGO のアプローチを適用するならば、「どういう順番で豆が落ちるかを求めろ」というところまでは人間が指示を出したうえで、
既存の「豆が落ちる順番を答える問題」について正当を学習させた上で、さらに、
何万問もの「豆が落ちる順番を答える問題」を自動生成して、それを学習させる
って方向になりますかね。
それが出来れば、結構な精度で「豆が落ちる順番を正しく答える」こと出来るものになる気がしますが、
そもそも、今の所は「模範解答込みな問題の自動生成」なんてまあ無理でしょうねぇ。
Re: (スコア:0)
ろうそくに火が付いているかどうかくらいは書いてあげなさいよ…
Re:クオリア論の延長? (スコア:1)
「ロウソクに火がつくと何が変わるんですか?」というのも、
教えなければならない知識の一つなんだなあ。先は長いわ。
#「熱湯に触ると火傷するから危険」みたいなのも、人間の子供にも教えてやらないと分からない。
#味覚や痛覚はあるとはいえ、それこそ赤ん坊なんて、なんでも口に入れるしねえ。
Re: (スコア:0)
人間も回答出すのは難しいのでは?
条件によっては豆が落ちない可能性もあるのだし。
Re:クオリア論の延長? (スコア:1)
> 「金属の棒に数箇所バターを塗り、そこに豆を付ける。その棒の片方をろうそくで温めたら、どういう順番で豆が落ちるか」といったな問題
「いったな問題」だから、「いえ、言ってません」が正解……というのはひねくれすぎてて、
マジ回答すると、場所とは関係なく「そら豆」→「大豆」→「グリーンピース」→「レンズ豆」の順に落ちます。
Re: (スコア:0)
ちなみにこの手の問題は、解答にいたった道筋まで示して答えです