アカウント名:
パスワード:
つまりAlpha ZeroのようなAI(人間に思考過程が理解できない)は諦めるということか
というか、ディープラーニング系は結構ヤバいのでは
>企業に決定過程の説明責任
うん、解釈の次第ではあるが、俺には全てのパラメータを含めた強制オープンソースと時間をかけて学習させたAIのパラメータ全部開示という企業努力を競争相手に開示しろという未来まで見えた。
機械学習をわかりやすく「決定過程の説明責任」ってどういう風にできるんだろ
プログラムロジックを開示せよ、ということではないと思うけどなぁ。
それが合理的な(情状酌量の余地のある)判断かどうかを判定するためでは?と思うけど。
例えば、AIの判断を基にした何かが人に被害を与えて、訴訟問題とかになった時に「AIが合理的に判断したことです。判断理由は一切開示できませんが。」と言って、まるっと責任回避されたら困るし。
かと言って、「AIの判断によって生じた被害は、その判断理由を問わず、それを提供している企業があらゆる責任を負う」としてしまうと、たとえ合理的な判断の結果であっても不必要に責任を負うことになり、AI開発は萎縮しちゃう。
プログラムロジックは開示しなくてもいいけど、そういったときにきちんとした説明をする義務はあるんじゃないかと思う。
元コメントの「結構ヤバい」ってのは、ディープラーニング系は、きちんと説明できないケースが多いだろうし、どうするんだろって話じゃないの。
浅い理解だけど、ディープラーニング系って入力と出力の学習データを使って、中間層を構築していくのだけど、その構築過程(バックプロパゲーション)を説明する事が難しい(何故、そのパラメータを設定したらうまくいったの分からないって話があるぐらい)って聞くけどね。
ディープラーニング系の判断理由なんて現場が一番知りたいくらいだから開示義務が困るのではなくて、現場の企業秘密をすべて開示したところで本人たちにもブラックボックスでしかないブラックボックスではあるけれどまだループが閉じてないから映画のAIのように勝手に進化したり暴走したりしないことだけは分かっている
従業員が企業の名で行うことについて、軽微なことなら個人の判断で出来るけど、重要なことならしかるべき決定過程を経てなされなければならない、そこでなんかやらかしちゃったら、企業としては、どういう経緯、どういう理由でそういう事態に至ったのか、再発防止をどうやっていくのかを説明する責任が発生するわけでしょ。従業員の部分がAIになったとしても、同じことをやらないといけないというだけだと思う。
でも、人間なら「なぜそんなことをした?」って聞くと答えてくれるけど、AIには無理でしょ。
たしかにそういう面もあるとは思うけど、人間の場合だって、だんまりを決め込まれたり逃亡したりして本人に事情聴取できない場合でも、企業の説明責任がなくなるわけじゃないよね。別の手段で説明責任を果たさないといけない。
人間だってパニックになったり、想定外の事態に直面すると、後から考えたら本人でも「なんで自分、あんなことしたんだろう」って思うようなことやらかすよ。
コンピューターはパニックにはならないだろうけど、運用者も想定してない事態になると(そしてディープラーニングのようにアルゴリズムだけでは即座に動作を想定できないような使い方してると)、ある意味人間以上に「何をやらかすかわからない」部分もあるから、似たり寄ったりだと思う。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
UNIXはシンプルである。必要なのはそのシンプルさを理解する素質だけである -- Dennis Ritchie
決定過程の説明責任 (スコア:0)
つまりAlpha ZeroのようなAI(人間に思考過程が理解できない)は諦めるということか
Re:決定過程の説明責任 (スコア:0)
というか、ディープラーニング系は結構ヤバいのでは
Re:決定過程の説明責任 (スコア:1)
Re: (スコア:0)
>企業に決定過程の説明責任
うん、解釈の次第ではあるが、俺には
全てのパラメータを含めた強制オープンソースと
時間をかけて学習させたAIのパラメータ全部開示という
企業努力を競争相手に開示しろという未来まで見えた。
機械学習をわかりやすく「決定過程の説明責任」ってどういう風にできるんだろ
Re: (スコア:0)
プログラムロジックを開示せよ、ということではないと思うけどなぁ。
それが合理的な(情状酌量の余地のある)判断かどうかを判定するためでは?と思うけど。
例えば、AIの判断を基にした何かが人に被害を与えて、訴訟問題とかになった時に
「AIが合理的に判断したことです。判断理由は一切開示できませんが。」
と言って、まるっと責任回避されたら困るし。
かと言って、
「AIの判断によって生じた被害は、その判断理由を問わず、それを提供している企業があらゆる責任を負う」
としてしまうと、たとえ合理的な判断の結果であっても不必要に責任を負うことになり、AI開発は萎縮しちゃう。
プログラムロジックは開示しなくてもいいけど、そういったときに
きちんとした説明をする義務はあるんじゃないかと思う。
Re: (スコア:0)
元コメントの「結構ヤバい」ってのは、ディープラーニング系は、きちんと説明できないケースが多いだろうし、どうするんだろって話じゃないの。
浅い理解だけど、ディープラーニング系って入力と出力の学習データを使って、中間層を構築していくのだけど、その構築過程(バックプロパゲーション)を説明する事が難しい(何故、そのパラメータを設定したらうまくいったの分からないって話があるぐらい)って聞くけどね。
Re: (スコア:0)
ディープラーニング系の判断理由なんて現場が一番知りたいくらいだから
開示義務が困るのではなくて、現場の企業秘密をすべて開示したところで本人たちにもブラックボックスでしかない
ブラックボックスではあるけれどまだループが閉じてないから映画のAIのように勝手に進化したり暴走したりしないことだけは分かっている
Re: (スコア:0)
従業員が企業の名で行うことについて、軽微なことなら個人の判断で出来るけど、重要なことならしかるべき決定過程を経てなされなければならない、
そこでなんかやらかしちゃったら、企業としては、どういう経緯、どういう理由でそういう事態に至ったのか、再発防止をどうやっていくのかを説明する責任が発生するわけでしょ。
従業員の部分がAIになったとしても、同じことをやらないといけないというだけだと思う。
Re: (スコア:0)
でも、人間なら「なぜそんなことをした?」って聞くと答えてくれるけど、AIには無理でしょ。
Re: (スコア:0)
たしかにそういう面もあるとは思うけど、
人間の場合だって、だんまりを決め込まれたり逃亡したりして本人に事情聴取できない場合でも、
企業の説明責任がなくなるわけじゃないよね。
別の手段で説明責任を果たさないといけない。
Re: (スコア:0)
人間だってパニックになったり、想定外の事態に直面すると、後から考えたら本人でも「なんで自分、あんなことしたんだろう」って思うようなことやらかすよ。
コンピューターはパニックにはならないだろうけど、運用者も想定してない事態になると(そしてディープラーニングのようにアルゴリズムだけでは即座に動作を想定できないような使い方してると)、ある意味人間以上に「何をやらかすかわからない」部分もあるから、似たり寄ったりだと思う。