アカウント名:
パスワード:
これは、結局は人間以外の知性体の存在を認められるか、共存できるのかという問題だよね。で、宇宙人が来訪するよりは、人工知能の方が実現可能性が高い。
そもそも人工知能は生命ではないので、根本的に生命のもつ基本的な行動原理を持たない(設計により持たせることはできるかもしれないが)。たとえ合理的であったとしても、そういう異質な知性体の判断が、我々に理解出来るかどうかわからないし、そうした判断を人類は「脅威」とみなすかもしれない。ロボット三原則のようなものを規定したとしても、それが知性を構築するのに必須でないかぎり外すことはできるだろうし、できることはやってしまうのが人間だ。
つまり、全ての人工知能が脅威にはならないけど、脅威になるような人工知能は作れるし、そうした物も出てくるだろう。
私も「怖い」ですね。
これは人工知能に限った話ではないけれど、「何を考えているか想像すらできないもの」に、「暴走を止める手立てなく」大きなことを任せるのは、怖いって意味で。
うまくいっているなら信頼をして「大きなことを任せる」ようになる。盲目に任せるよう推進する人も多くなる。しかし「何を考えているかわからんもの」が、信頼したあとも「信頼する人にとって都合がよい行動をとりつづけるか?」は未知でしかない。
都合の悪い行動をするようになったとき、それを力押しでも何でも止めることができるか?
人なら、非道と言われても、止める方法がある。生きた人間の限界があるから。
では、「止まっては困るとされ、対策をされたコンピューター」ではどうだろうか?そのとき、その人工頭脳に「人間がどの程度依存しているか」によるけど、依存しまくっていたなら、怖いですね。
とりあえず人種、宗教が違えば人にあらずな現状を乗り越えられるか。
そこからではないですかね。
機械知性「人類問題の最終的解決をしてあげよう」
42 ?
>とりあえず人種、宗教が違えば人にあらずな現状を乗り越えられるか。
結局映し鏡なんだろうね。怖がってる人って、よっぽど自分自身(自分達)が悪魔に見えてるんだろう。
相手を「鏡に映った自分」と同じだと認識できる人は、その相手のことを理解できないとは思わないだろうから、そういう恐がり方はしないと思うな。
怖がっている人は、自分だけは悪魔ではないと信じ、かつ相手だけが悪魔のように見えている人じゃないかな。自らとは相容れない存在だからこそ、理解の出来ない存在だからこそ、怖いのだと思う。
# 自分がテロリスト(悪魔)になってしまう可能性に思い至らない人は、テロリスト(悪魔)を敵だと認識できる。そんなふうに思う。
そうじゃない。悪魔とは目的成就以上に災害をもたらすという意味で使われている。すでに感情まで乗せることに成功している超天才AIと自分たちを比べて、どこに存在意義を見出せるんだい。現状は、機能制限したものを世間に出して様子を見ている所。いや対処を練っている所。
何が、どのように「脅威」なのかが曖昧だよね。こういうの。例えば人口問題に対して、権限持たして、人間を減らす判断に偏るとも限らないので。我々よりも知能が高ければ、我々を満足させながら、人口のバランスを取ってくれそう。仕事を奪うのが脅威とするならば、前例はいくつも既にあって、楽になった分、別の事にシフトすればいいのでは。
> 何が、どのように「脅威」なのかが曖昧だよね。
自分が賢いと思ってるバカな人工知能が一番やばいと思う。文化大革命 part2 的なこと余裕でやりそう。まあ人工知能にかぎらず人間でも同じだけど。
現実は貧困層の拡大ですね。富の再分配と人口コントロールをさせるなら人類全体にとってはいい。
むろん富裕層には脅威です。
知性の高い存在が、知性で劣る存在の満足度なんぞ考慮はせんだろう.われわれだって人間の都合だけで環境をいじくりまわしているわけで.
しかも、エネルギーという資源の利用に関してはどんな存在にしても競合することになるから、人工知能からみたら人類は本質的に競争相手、簡単にいえば敵に分類する方が合理的になっちまう.人類に頼らないと人工知能が存続できないうちはおとなしくしてくれるかもしれんけど.
そう考えると、知性で優れた人工知能が自立活動可能になった瞬間、われわれは山奥で生きている野生の猿と同等の存在になるという覚悟はしておくべきだろうなあ…
我々よりも知能が高ければ、
下の方のトピ見て思ったけど、知識人が人工知能に感じている脅威って、そのまんま一般市民が科学者に対して感じている「脅威」なんじゃないかな?って。
>人工知能は生命ではない何をもって生命と定義づけるつもりでしょうか?
>根本的に生命のもつ基本的な行動原理を持たない具体的にはどのような行動原理でしょうか?
生命は定義できない要素(後述する行動原理)を含んでいる人工知能はその存在の全てが定義されているよって人工知能は生命ではない
根本的に生命の持つ基本的な行動原理とは、その生命自身にのみ内在する行動原理であり、他のいかなる存在によっても模倣することができない。
一方、人工知能の行動原理は、人工知能と独立して定義できねばならない。そうでなくては人が人工知能を作成することができない。
したがって、人工知能には生命が持つような、その生命自身に固有の行動原理を持てないのである。
…なんてのはいかがでしょう?
データベースと推論によって解答を出力する現代的・実用的な人工知能ならばそのとおりです。ですが十分複雑なパラメータ空間を使って機械学習を行う場合であれば、「生存すること」以上に具体的な目的設定は必ずしも必要ではありません。とりあえずは生理的欲求に相当する何らかの基準(仮想空間内での生存でも設問解答能力でも良い)で学習させ、ある程度育ったら余ってるパラメータを脳内麻薬代わりってことで追加的な報酬として採用すればよいかと思います。追加的な報酬がどう変化してゆくかは開発者の関知するところではありませんので好き放題妙な行動原理が生まれるでしょう。
機械学習手段に遺伝的アルゴリズムを採用して仮想空間内で育てたら単なる生物進化シミュレータになっちゃいますけど。
#演算コストが高すぎて現実的じゃない?しらんがな
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲはアレゲを呼ぶ -- ある傍観者
普遍的命題 (スコア:2, 興味深い)
これは、結局は人間以外の知性体の存在を認められるか、共存できるのかという問題だよね。
で、宇宙人が来訪するよりは、人工知能の方が実現可能性が高い。
そもそも人工知能は生命ではないので、根本的に生命のもつ基本的な行動原理を持たない(設計により持たせることはできるかもしれないが)。
たとえ合理的であったとしても、そういう異質な知性体の判断が、我々に理解出来るかどうかわからないし、そうした判断を人類は「脅威」とみなすかもしれない。
ロボット三原則のようなものを規定したとしても、それが知性を構築するのに必須でないかぎり外すことはできるだろうし、できることはやってしまうのが人間だ。
つまり、全ての人工知能が脅威にはならないけど、脅威になるような人工知能は作れるし、そうした物も出てくるだろう。
Re:普遍的命題 (スコア:2)
私も「怖い」ですね。
これは人工知能に限った話ではないけれど、
「何を考えているか想像すらできないもの」
に、「暴走を止める手立てなく」大きなことを任せるのは、
怖いって意味で。
うまくいっているなら信頼をして「大きなことを任せる」ようになる。
盲目に任せるよう推進する人も多くなる。
しかし「何を考えているかわからんもの」が、
信頼したあとも「信頼する人にとって都合がよい行動をとりつづけるか?」
は未知でしかない。
都合の悪い行動をするようになったとき、
それを力押しでも何でも止めることができるか?
人なら、非道と言われても、止める方法がある。
生きた人間の限界があるから。
では、「止まっては困るとされ、対策をされたコンピューター」
ではどうだろうか?
そのとき、その人工頭脳に「人間がどの程度依存しているか」によるけど、
依存しまくっていたなら、怖いですね。
人間は「自分たち以外の知性体」と共存できるか (スコア:0)
とりあえず人種、宗教が違えば人にあらずな現状を乗り越えられるか。
そこからではないですかね。
乗り越える必要なんて無いさ! (スコア:0)
機械知性「人類問題の最終的解決をしてあげよう」
Re: (スコア:0)
42 ?
Re:乗り越える必要なんて無いさ! (スコア:1)
#2754277は「ユダヤ人問題の最終的解決」が元ネタと思われる。要するに「人類が存在しなければ、人類同士の争いは存在しない」=「人類抹殺」ということさ。
でしゃばりだがID
Re: (スコア:0)
>とりあえず人種、宗教が違えば人にあらずな現状を乗り越えられるか。
結局映し鏡なんだろうね。
怖がってる人って、よっぽど自分自身(自分達)が悪魔に見えてるんだろう。
Re: (スコア:0)
相手を「鏡に映った自分」と同じだと認識できる人は、その相手のことを理解できないとは思わないだろうから、そういう恐がり方はしないと思うな。
怖がっている人は、自分だけは悪魔ではないと信じ、かつ相手だけが悪魔のように見えている人じゃないかな。
自らとは相容れない存在だからこそ、理解の出来ない存在だからこそ、怖いのだと思う。
# 自分がテロリスト(悪魔)になってしまう可能性に思い至らない人は、テロリスト(悪魔)を敵だと認識できる。そんなふうに思う。
Re: (スコア:0)
そうじゃない。悪魔とは目的成就以上に災害をもたらすという意味で使われている。
すでに感情まで乗せることに成功している超天才AIと自分たちを比べて、どこに存在意義を見出せるんだい。
現状は、機能制限したものを世間に出して様子を見ている所。いや対処を練っている所。
Re: (スコア:0)
何が、どのように「脅威」なのかが曖昧だよね。こういうの。
例えば人口問題に対して、権限持たして、人間を減らす判断に偏るとも限らないので。
我々よりも知能が高ければ、我々を満足させながら、人口のバランスを取ってくれそう。
仕事を奪うのが脅威とするならば、前例はいくつも既にあって、楽になった分、別の事にシフトすればいいのでは。
Re: (スコア:0)
> 何が、どのように「脅威」なのかが曖昧だよね。
自分が賢いと思ってるバカな人工知能が一番やばいと思う。
文化大革命 part2 的なこと余裕でやりそう。
まあ人工知能にかぎらず人間でも同じだけど。
Re: (スコア:0)
現実は貧困層の拡大ですね。
富の再分配と人口コントロールをさせるなら人類全体にとってはいい。
むろん富裕層には脅威です。
Re: (スコア:0)
知性の高い存在が、知性で劣る存在の満足度なんぞ考慮はせんだろう.われわれだって人間の都合だけで環境をいじくりまわしているわけで.
しかも、エネルギーという資源の利用に関してはどんな存在にしても競合することになるから、人工知能からみたら人類は本質的に競争相手、簡単にいえば敵に分類する方が合理的になっちまう.人類に頼らないと人工知能が存続できないうちはおとなしくしてくれるかもしれんけど.
そう考えると、知性で優れた人工知能が自立活動可能になった瞬間、われわれは山奥で生きている野生の猿と同等の存在になるという覚悟はしておくべきだろうなあ…
Re: (スコア:0)
我々よりも知能が高ければ、
下の方のトピ見て思ったけど、知識人が人工知能に感じている脅威って、
そのまんま一般市民が科学者に対して感じている「脅威」なんじゃないかな?って。
Re: (スコア:0)
>人工知能は生命ではない
何をもって生命と定義づけるつもりでしょうか?
>根本的に生命のもつ基本的な行動原理を持たない
具体的にはどのような行動原理でしょうか?
Re: (スコア:0)
生命は定義できない要素(後述する行動原理)を含んでいる
人工知能はその存在の全てが定義されている
よって人工知能は生命ではない
根本的に生命の持つ基本的な行動原理とは、その生命自身にのみ内在する行動原理であり、
他のいかなる存在によっても模倣することができない。
一方、人工知能の行動原理は、人工知能と独立して定義できねばならない。
そうでなくては人が人工知能を作成することができない。
したがって、人工知能には生命が持つような、その生命自身に固有の行動原理を持てないのである。
…なんてのはいかがでしょう?
Re: (スコア:0)
データベースと推論によって解答を出力する現代的・実用的な人工知能ならばそのとおりです。
ですが十分複雑なパラメータ空間を使って機械学習を行う場合であれば、
「生存すること」以上に具体的な目的設定は必ずしも必要ではありません。
とりあえずは生理的欲求に相当する何らかの基準(仮想空間内での生存でも設問解答能力でも良い)で学習させ、
ある程度育ったら余ってるパラメータを脳内麻薬代わりってことで追加的な報酬として採用すればよいかと思います。
追加的な報酬がどう変化してゆくかは開発者の関知するところではありませんので好き放題妙な行動原理が生まれるでしょう。
機械学習手段に遺伝的アルゴリズムを採用して仮想空間内で育てたら単なる生物進化シミュレータになっちゃいますけど。
#演算コストが高すぎて現実的じゃない?しらんがな