アカウント名:
パスワード:
とっくに廃れた分野だと思ってたけど、なんか新しいことがあるの?
答えがだいたい合ってればいい、というような目的に対して、高速で低消費エネルギーで答えを出せるのが特徴だと思うんだけど、いままでは従来型の半導体デバイスを用いたコンピュータの上でエミュレーションでやってた。それだと従来型の半導体デバイスを使う時点で高速・低消費エネルギーは無理だけど、今回のようにハードウェアで直接実装してやれば実現できる、というところが新しいのではないでしょうか。
>今回のようにハードウェアで直接実装してやれば実現できる、>というところが新しいのではないでしょうか。
いままででもハードウェアでの実装例なんて
おいくら万円??
大昔はニューラル・ネットワークと言えばパーセプトロンだったような時代やコミュニティもあったけど、いまはそんなことはないよ。パーセプトロンには、たれ込みにある「シナプス」はないよね。ニューロンのネットワークという意味では、我々の脳だってニューラル・ネットワークだし。その数理モデルの研究は、廃れるどころか、面白すぎてグラント申請せずにはいられないくらいの分野だと思います(どのくらい予算がついてるかは知らないけど)。
>パーセプトロンには、たれ込みにある「シナプス」はないよね。この手の話は概念の捉え方の話だから、パーセプトロンのようなフィードフォワードニューラルネットにもシナプスは想定できるよ。接続腕の数を考えるとごちゃごちゃしてよく判らんけど。
ノード数が合わないが、入力は判定を行わないのでノードにカウントしないと仮定するとして・・・■1024bit入力の単純パーセプトロンとして(1024*256)=262144シナプス。■256bit入力の単純パーセプトロンとして(256*256)=65536シナプス。●768bit入力の全結合リカレントニューラルネットとして(256*256)+(768*256)=262144シナプス。●0bit入力の全結合リカレントニューラルネットとして(256*256)+(0*256)=65536シナプス。(制御不能)▲768bit入力とノードの上書き入力256bitの全結合リカレントニューラルネットとして、(256*256)+(768*256)=262144シナプス。▲0bit入力とノードの上書き入力256bitの全結合リカレントニューラルネットとして、(256*256)+(0*256)=65536シナプス。判りやすく帳尻を合わせると、単純パーセプトロンの方が素直に262144と65536シナプスを求めやすい気がする。出力を入力にフィードバックすれば、単純パーセプトロンで全結合リカレントニューラルネットを代用する事もできるわけだし、実装の手間考えたら案外パーセプトロンの繰り返し実行かもよ?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
皆さんもソースを読むときに、行と行の間を読むような気持ちで見てほしい -- あるハッカー
ニューラルネットワークって (スコア:0)
とっくに廃れた分野だと思ってたけど、なんか新しいことがあるの?
Re:ニューラルネットワークって (スコア:1, 参考になる)
答えがだいたい合ってればいい、というような目的に対して、
高速で低消費エネルギーで答えを出せるのが特徴だと思うんだけど、
いままでは従来型の半導体デバイスを用いたコンピュータの上で
エミュレーションでやってた。それだと従来型の半導体
デバイスを使う時点で高速・低消費エネルギーは無理だけど、
今回のようにハードウェアで直接実装してやれば実現できる、
というところが新しいのではないでしょうか。
Re: (スコア:0)
>今回のようにハードウェアで直接実装してやれば実現できる、
>というところが新しいのではないでしょうか。
いままででもハードウェアでの実装例なんて
Re: (スコア:0)
おいくら万円??
Re:ニューラルネットワークって (スコア:1)
大昔はニューラル・ネットワークと言えばパーセプトロンだったような時代やコミュニティもあったけど、いまはそんなことはないよ。
パーセプトロンには、たれ込みにある「シナプス」はないよね。
ニューロンのネットワークという意味では、我々の脳だってニューラル・ネットワークだし。
その数理モデルの研究は、廃れるどころか、面白すぎてグラント申請せずにはいられないくらいの分野だと思います(どのくらい予算がついてるかは知らないけど)。
Re:ニューラルネットワークって (スコア:1, 興味深い)
>パーセプトロンには、たれ込みにある「シナプス」はないよね。
この手の話は概念の捉え方の話だから、パーセプトロンのようなフィードフォワードニューラルネットにもシナプスは想定できるよ。
接続腕の数を考えるとごちゃごちゃしてよく判らんけど。
ノード数が合わないが、入力は判定を行わないのでノードにカウントしないと仮定するとして・・・
■1024bit入力の単純パーセプトロンとして(1024*256)=262144シナプス。
■256bit入力の単純パーセプトロンとして(256*256)=65536シナプス。
●768bit入力の全結合リカレントニューラルネットとして(256*256)+(768*256)=262144シナプス。
●0bit入力の全結合リカレントニューラルネットとして(256*256)+(0*256)=65536シナプス。(制御不能)
▲768bit入力とノードの上書き入力256bitの全結合リカレントニューラルネットとして、(256*256)+(768*256)=262144シナプス。
▲0bit入力とノードの上書き入力256bitの全結合リカレントニューラルネットとして、(256*256)+(0*256)=65536シナプス。
判りやすく帳尻を合わせると、単純パーセプトロンの方が素直に262144と65536シナプスを求めやすい気がする。
出力を入力にフィードバックすれば、単純パーセプトロンで全結合リカレントニューラルネットを代用する事もできるわけだし、実装の手間考えたら案外パーセプトロンの繰り返し実行かもよ?
Re: (スコア:0)
当然x86のようなアーキテクチャ上で同じようなシミュレーションをやるのと計算的には同等でしょうし
ハードウェア化したことで100倍ほど早くなった!とかいうなら多少は価値があるんでしょうが
そもそもこの手のアルゴリズム自体がなんというかちょっと微妙な状況ですからね・・・
それにこの手のチップって一時的には速くても結局既存のアーキテクチャの集積度合いの進化に負けるのが宿命だったり
それはともかく,脳型チップ=人工知能みたいのはさすがに短絡的すぎるというか
80年代的な「知能って何」みたいな問題が未だに解決されていないので
一般人向けにそういう広告トークはあったとしても
実際にはそういう方向にはいかないんじゃないかな
Re: (スコア:0)