アカウント名:
パスワード:
つまりAlpha ZeroのようなAI(人間に思考過程が理解できない)は諦めるということか
決定結果の引責AIの判断はどうであれ、それの採否は人間が責任をとる、というのならわかる。しかし、それは古い考え方かな。
AI産業が発展し国際競争に伍していけるようにするには、人間が責任を取るというのが足かせになるということかな。
というか、ディープラーニング系は結構ヤバいのでは
>企業に決定過程の説明責任
うん、解釈の次第ではあるが、俺には全てのパラメータを含めた強制オープンソースと時間をかけて学習させたAIのパラメータ全部開示という企業努力を競争相手に開示しろという未来まで見えた。
機械学習をわかりやすく「決定過程の説明責任」ってどういう風にできるんだろ
プログラムロジックを開示せよ、ということではないと思うけどなぁ。
それが合理的な(情状酌量の余地のある)判断かどうかを判定するためでは?と思うけど。
例えば、AIの判断を基にした何かが人に被害を与えて、訴訟問題とかになった時に「AIが合理的に判断したことです。判断理由は一切開示できませんが。」と言って、まるっと責任回避されたら困るし。
かと言って、「AIの判断によって生じた被害は、その判断理由を問わず、それを提供している企業があらゆる責任を負う」としてしまうと、たとえ合理的な判断の結果であっても不必要に責任を負うことになり、AI開発は萎縮しちゃう。
プログラムロジックは開示しなくてもいいけど、そういったときにきちんとした説明をする義務はあるんじゃないかと思う。
元コメントの「結構ヤバい」ってのは、ディープラーニング系は、きちんと説明できないケースが多いだろうし、どうするんだろって話じゃないの。
浅い理解だけど、ディープラーニング系って入力と出力の学習データを使って、中間層を構築していくのだけど、その構築過程(バックプロパゲーション)を説明する事が難しい(何故、そのパラメータを設定したらうまくいったの分からないって話があるぐらい)って聞くけどね。
ディープラーニング系の判断理由なんて現場が一番知りたいくらいだから開示義務が困るのではなくて、現場の企業秘密をすべて開示したところで本人たちにもブラックボックスでしかないブラックボックスではあるけれどまだループが閉じてないから映画のAIのように勝手に進化したり暴走したりしないことだけは分かっている
従業員が企業の名で行うことについて、軽微なことなら個人の判断で出来るけど、重要なことならしかるべき決定過程を経てなされなければならない、そこでなんかやらかしちゃったら、企業としては、どういう経緯、どういう理由でそういう事態に至ったのか、再発防止をどうやっていくのかを説明する責任が発生するわけでしょ。従業員の部分がAIになったとしても、同じことをやらないといけないというだけだと思う。
でも、人間なら「なぜそんなことをした?」って聞くと答えてくれるけど、AIには無理でしょ。
たしかにそういう面もあるとは思うけど、人間の場合だって、だんまりを決め込まれたり逃亡したりして本人に事情聴取できない場合でも、企業の説明責任がなくなるわけじゃないよね。別の手段で説明責任を果たさないといけない。
人間だってパニックになったり、想定外の事態に直面すると、後から考えたら本人でも「なんで自分、あんなことしたんだろう」って思うようなことやらかすよ。
コンピューターはパニックにはならないだろうけど、運用者も想定してない事態になると(そしてディープラーニングのようにアルゴリズムだけでは即座に動作を想定できないような使い方してると)、ある意味人間以上に「何をやらかすかわからない」部分もあるから、似たり寄ったりだと思う。
あれ、関連リンクに肝心のアレが入って無いのか?「米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」 https://it.srad.jp/story/18/10/14/0523217/ [it.srad.jp]
Amazonが諦めた経緯を見れば、何が問題か明らかでは。
AlphaGoについては、勝ち負けを評価基準にしてるという説明でほぼ十分だろうけど、人事AIについては過去の採用という教師信号に含まれる差別や偏見がそのまま反映されるからね。
日本企業を放置すると、「AIの判断だから」を差別の口実に使うのは目に見えてる。
全面的に同意.偏った学習データの問題としては,Microsoftが会話Botでやらかした件 [it.srad.jp]もあるね.
現状を元データとして解析した結果は,あくまで現状を表現するものだ.そこから課題を見つけて問題解決につなげるなら有用だが,それに従うのなら単なる現状維持の手段にしか過ぎない.それにNHKのアレみたいに(意図的に?)因果関係と相関関係を混同するようなパターンもあるので「AI活用」は何かと油断できないと思っている.
「なんでもいいからAIを使え」って言う上司が窮地に陥るのでは
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
人生unstable -- あるハッカー
決定過程の説明責任 (スコア:0)
つまりAlpha ZeroのようなAI(人間に思考過程が理解できない)は諦めるということか
Re:決定過程の説明責任 (スコア:2)
決定結果の引責
AIの判断はどうであれ、それの採否は人間が責任をとる、というのならわかる。
しかし、それは古い考え方かな。
AI産業が発展し国際競争に伍していけるようにするには、人間が責任を取るというのが足かせになるということかな。
Re: (スコア:0)
というか、ディープラーニング系は結構ヤバいのでは
Re:決定過程の説明責任 (スコア:1)
Re: (スコア:0)
>企業に決定過程の説明責任
うん、解釈の次第ではあるが、俺には
全てのパラメータを含めた強制オープンソースと
時間をかけて学習させたAIのパラメータ全部開示という
企業努力を競争相手に開示しろという未来まで見えた。
機械学習をわかりやすく「決定過程の説明責任」ってどういう風にできるんだろ
Re: (スコア:0)
プログラムロジックを開示せよ、ということではないと思うけどなぁ。
それが合理的な(情状酌量の余地のある)判断かどうかを判定するためでは?と思うけど。
例えば、AIの判断を基にした何かが人に被害を与えて、訴訟問題とかになった時に
「AIが合理的に判断したことです。判断理由は一切開示できませんが。」
と言って、まるっと責任回避されたら困るし。
かと言って、
「AIの判断によって生じた被害は、その判断理由を問わず、それを提供している企業があらゆる責任を負う」
としてしまうと、たとえ合理的な判断の結果であっても不必要に責任を負うことになり、AI開発は萎縮しちゃう。
プログラムロジックは開示しなくてもいいけど、そういったときに
きちんとした説明をする義務はあるんじゃないかと思う。
Re: (スコア:0)
元コメントの「結構ヤバい」ってのは、ディープラーニング系は、きちんと説明できないケースが多いだろうし、どうするんだろって話じゃないの。
浅い理解だけど、ディープラーニング系って入力と出力の学習データを使って、中間層を構築していくのだけど、その構築過程(バックプロパゲーション)を説明する事が難しい(何故、そのパラメータを設定したらうまくいったの分からないって話があるぐらい)って聞くけどね。
Re: (スコア:0)
ディープラーニング系の判断理由なんて現場が一番知りたいくらいだから
開示義務が困るのではなくて、現場の企業秘密をすべて開示したところで本人たちにもブラックボックスでしかない
ブラックボックスではあるけれどまだループが閉じてないから映画のAIのように勝手に進化したり暴走したりしないことだけは分かっている
Re: (スコア:0)
従業員が企業の名で行うことについて、軽微なことなら個人の判断で出来るけど、重要なことならしかるべき決定過程を経てなされなければならない、
そこでなんかやらかしちゃったら、企業としては、どういう経緯、どういう理由でそういう事態に至ったのか、再発防止をどうやっていくのかを説明する責任が発生するわけでしょ。
従業員の部分がAIになったとしても、同じことをやらないといけないというだけだと思う。
Re: (スコア:0)
でも、人間なら「なぜそんなことをした?」って聞くと答えてくれるけど、AIには無理でしょ。
Re: (スコア:0)
たしかにそういう面もあるとは思うけど、
人間の場合だって、だんまりを決め込まれたり逃亡したりして本人に事情聴取できない場合でも、
企業の説明責任がなくなるわけじゃないよね。
別の手段で説明責任を果たさないといけない。
Re: (スコア:0)
人間だってパニックになったり、想定外の事態に直面すると、後から考えたら本人でも「なんで自分、あんなことしたんだろう」って思うようなことやらかすよ。
コンピューターはパニックにはならないだろうけど、運用者も想定してない事態になると(そしてディープラーニングのようにアルゴリズムだけでは即座に動作を想定できないような使い方してると)、ある意味人間以上に「何をやらかすかわからない」部分もあるから、似たり寄ったりだと思う。
Re: (スコア:0)
あれ、関連リンクに肝心のアレが入って無いのか?
「米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」 https://it.srad.jp/story/18/10/14/0523217/ [it.srad.jp]
Amazonが諦めた経緯を見れば、何が問題か明らかでは。
AlphaGoについては、勝ち負けを評価基準にしてるという説明でほぼ十分だろうけど、
人事AIについては過去の採用という教師信号に含まれる差別や偏見がそのまま反映されるからね。
日本企業を放置すると、「AIの判断だから」を差別の口実に使うのは目に見えてる。
Re:決定過程の説明責任 (スコア:1)
全面的に同意.
偏った学習データの問題としては,Microsoftが会話Botでやらかした件 [it.srad.jp]もあるね.
現状を元データとして解析した結果は,あくまで現状を表現するものだ.
そこから課題を見つけて問題解決につなげるなら有用だが,それに従うのなら単なる現状維持の手段にしか過ぎない.
それにNHKのアレみたいに(意図的に?)因果関係と相関関係を混同するようなパターンもあるので
「AI活用」は何かと油断できないと思っている.
Re: (スコア:0)
「なんでもいいからAIを使え」って言う上司が窮地に陥るのでは