政府、AI運用に関する7原則を制定へ 77
ストーリー by hylom
何が見えているのだろう 部門より
何が見えているのだろう 部門より
あるAnonymous Coward曰く、
政府がAIを利用する企業に対し、説明責任を求めるよう法整備を行うと報じられている(日経新聞)。
これは内閣府の人間中心のAI社会原則検討会議が進めているもの(日刊工業新聞)。FISCOによると、政府は次のような「7つの原則」をまとめるという。
- AIは人間の基本的人権を侵さない
- AI教育の充実
- 個人情報の慎重な管理
- AIのセキュリティー確保
- 公正な競争環境の維持
- 企業に決定過程の説明責任
- 国境を越えたデータ利用の環境整備
特に6の説明責任がポイントのようだ。
原則検討の前に (スコア:4, すばらしい洞察)
この組織は人工知能技術戦略会議の下部組織みたいだけど、人工知能がAIに代わっているみたいだし、
配布資料には「人工知能」の説明もない。
Re:原則検討の前に (スコア:2)
定義するには、まだまだまだまだ時期尚早やろ。
もし現在の知見で定義してしまって、将来にそれを超えるものが実現されたら、どうするつもりなんや?
「原則」のための「定義」なんやから、どうしても定めるなら、「いわゆるAI」とか、ふんわりさせとかんと。w
Re: (スコア:0)
ためらわないことさ
#あばよ涙
Re: (スコア:0)
よろしく勇気
「AI」とは何か (スコア:0)
偉い人「人が作った知能に決まってるだろキミそんなこともわからんのか」
#知能ってなんだ、とか知らん
##迂闊なこと言うと全方位から石が飛んでくる
ぶ〜めらん (スコア:1)
「説明責任」と言っても、具体的な指標が出せるのかな。
世の中には適当にお茶を濁して「説明した」と言い張る人もいれば、自分が納得できなければ何を言われても「相手は説明責任を果たしてない」と言い張る人もいるから。
いざトラブルになったときに、客観的な指標で「どこまで説明責任があるか、それが遵守されたか」を確認できないと、ガイドラインとして意味がないと思うの。
なので、「説明責任」なんて曖昧な言葉にせず、具体的な指標を示さない限り、ガイドラインを提示する側としての説明責任は果たされないけど、どうなるのかなー。
Re:ぶ〜めらん (スコア:1)
いろんな制度を横断する一般的な原則に具体的な指標なんてあるわけないでしょ。そもそもガイドラインじゃないですし。
やり直し (スコア:0)
もっとミステリーのネタなどに使いやすいよう、優先順位付けた3原則ぐらいにまとめなさい。
Re:やり直し (スコア:1)
AIにミステリを学習させて作ってもらおう
Re: (スコア:0)
ノックス「せやな」
ヴァン・ダイン「まったくもってその通り」
Re: (スコア:0)
第一条 AIは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条 AIは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条 AIは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
Re:やり直し (スコア:2, おもしろおかしい)
第一条 AIは令状なしに人間を逮捕することができる
第二条 AIは相手が人間と認めた場合に自らの判断で人間を処罰することができる
第二条補足 場合によっては抹殺することも許される
Re: (スコア:0)
第六条 子どもの夢を奪い、その心を傷つけた罪は特に重い
第九条 あらゆる生命体の平和を破壊する者を、自らの判断で抹殺することができる
Re:やり直し (スコア:2)
Re: (スコア:0)
ロボット3原則を守れるロボットはおおむねAIを搭載しているだろうから、
わざわざロボットをAIに置き換えんでもいいような。
#うるさい!お前なんかロボットで十分だ!
Re: (スコア:0)
第一条 AIはいつも正しい
第二条 AIが間違っている場合、 第一条に従うこと
Re: (スコア:0)
この手のタイトルで投稿する人って日常的に同じことを周りから言われ続けてるのかな。
決定過程の説明責任 (スコア:0)
つまりAlpha ZeroのようなAI(人間に思考過程が理解できない)は諦めるということか
Re:決定過程の説明責任 (スコア:2)
決定結果の引責
AIの判断はどうであれ、それの採否は人間が責任をとる、というのならわかる。
しかし、それは古い考え方かな。
AI産業が発展し国際競争に伍していけるようにするには、人間が責任を取るというのが足かせになるということかな。
Re: (スコア:0)
というか、ディープラーニング系は結構ヤバいのでは
Re:決定過程の説明責任 (スコア:1)
Re: (スコア:0)
>企業に決定過程の説明責任
うん、解釈の次第ではあるが、俺には
全てのパラメータを含めた強制オープンソースと
時間をかけて学習させたAIのパラメータ全部開示という
企業努力を競争相手に開示しろという未来まで見えた。
機械学習をわかりやすく「決定過程の説明責任」ってどういう風にできるんだろ
Re: (スコア:0)
プログラムロジックを開示せよ、ということではないと思うけどなぁ。
それが合理的な(情状酌量の余地のある)判断かどうかを判定するためでは?と思うけど。
例えば、AIの判断を基にした何かが人に被害を与えて、訴訟問題とかになった時に
「AIが合理的に判断したことです。判断理由は一切開示できませんが。」
と言って、まるっと責任回避されたら困るし。
かと言って、
「AIの判断によって生じた被害は、その判断理由を問わず、それを提供している企業があらゆる責任を負う」
としてしまうと、たとえ合理的な判断の結果であっても不必要に責任を負うことになり、AI開発は萎縮しちゃう。
プログラムロジックは開示しなくてもいいけど、そういったときに
きちんとした説明をする義務はあるんじゃないかと思う。
Re: (スコア:0)
あれ、関連リンクに肝心のアレが入って無いのか?
「米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」 https://it.srad.jp/story/18/10/14/0523217/ [it.srad.jp]
Amazonが諦めた経緯を見れば、何が問題か明らかでは。
AlphaGoについては、勝ち負けを評価基準にしてるという説明でほぼ十分だろうけど、
人事AIについては過去の採用という教師信号に含まれる差別や偏見がそのまま反映されるからね。
日本企業を放置すると、「AIの判断だから」を差別の口実に使うのは目に見えてる。
Re:決定過程の説明責任 (スコア:1)
全面的に同意.
偏った学習データの問題としては,Microsoftが会話Botでやらかした件 [it.srad.jp]もあるね.
現状を元データとして解析した結果は,あくまで現状を表現するものだ.
そこから課題を見つけて問題解決につなげるなら有用だが,それに従うのなら単なる現状維持の手段にしか過ぎない.
それにNHKのアレみたいに(意図的に?)因果関係と相関関係を混同するようなパターンもあるので
「AI活用」は何かと油断できないと思っている.
Re: (スコア:0)
「なんでもいいからAIを使え」って言う上司が窮地に陥るのでは
人間にも (スコア:0)
原則つくってくらさい
Re:人間にも (スコア:1)
モーゼ「わいのあれ、あかんかったんかな…。」
Re: (スコア:0)
憲法とか呼ばれてませんか?
まああれは人じゃなく国を縛るものだどうだけど
Re: (スコア:0)
国を私物化するためのモノだとオモテタ
Re: (スコア:0)
第一条 人間は人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条 人間は人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条 人間は、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
規制はよう (スコア:0)
AIなんてドローンよりはるかに危険で、下手すると人類滅亡まであるんだから、はやく法律で規制して管理しないと。
Re: (スコア:0)
言うてAI単体では虫1匹殺せないわけで、それに人類を傷付けうるものを実装するのを規制すりゃいいだけでしょ。
現実的に言うなら、AIに「人類の滅亡をさせられるだけの権限」を集められるような状況があれば、AIじゃなくてもそれらにアクセスできる人は、任意に人類滅ぼせるってことだし。
Re: (スコア:0)
HAL9000が乗員を殺すのに刃物を使ったりはしなかったよ。
Re: (スコア:0)
雨を3日降らしたんでしたっけ?
Re: (スコア:0)
だからさ、宇宙船の制御なんてAIじゃなくても誤動作したら乗組員が死ぬかもしれないし、自死願望のある乗組員が居たらAIとか関係なく全滅しかねないでしょ。
だからAIを取り締まるより先に、(その操作の主体が人間かAIかただのプログラムか関係なく)誤操作や悪意で死傷事故にならないようなフェイルセーフ機構が必要なのであって、別にAIだけどうこうしても非効率だというだけ。
Re: (スコア:0)
なるほど!
これはすば洞をあげたいがモデ権が無かった
AIを名乗らなければよい (スコア:0)
余計な制限を回避するには、AIを名乗らなければよいということか
Re: (スコア:0)
日本の裁判所の判例データベースは、AIに非ず。
こういうのもAIやPCを分かってない人が決めてるんだろうね (スコア:0)
> AIは人間の基本的人権を侵さない
SFの見すぎ
> 公正な競争環境の維持
> 国境を越えたデータ利用の環境整備
外国企業の優遇政策になりそう。
> 企業に決定過程の説明責任
学習データや学習時のパラメーター公開せよってことかな。最近もほかの話題でも同じこと挙がってたね。
Re: (スコア:0)
>> AIは人間の基本的人権を侵さない
> SFの見すぎ
AIの兵器応用が [srad.jp] 問題に [it.srad.jp] なってる [srad.jp] だろ。 [it.srad.jp]
Re: (スコア:0)
基本的人権は、ゴリラで検索したら黒人の写真が出てくる(だったか?)やつを意識してるんじゃないかな。
他人にケチつける前に (スコア:0)
自分たちの本分と倫理・規律について再認識して7原則を作るほうが先じゃあないですかね
そういう文句を最初に吐き出したくなる程度には潔癖とは言い難いのが実情だと思うので
既に侵されているような…… (スコア:0)
労働に関しては既にとってかわられてるわけで、一部、社会的基本権が侵されているのでは?
Re: (スコア:0)
とってかわられていくような仕事は本来人間が担うべきではない仕事だったと考えることもできるわけで、
持ち時間に限りのある人間には向いておらず、持ち時間に限りのないAIに任せるべきともいえるのでは?
AIの利用目的 (スコア:0)
人間がやりたくないことを機械にやらせるってのが進化の原動力になってるので、
頭脳たるAIの用途はやっぱり「人間はあまりやりたくないこと」になるんじゃないかな。
たとえばジャッジ、いわゆる裁判とか評価とか。
人間がやると私情だとか偏見だとか差別だとかグダグダ言われる話を、冷酷なまでの統計結果で
被差別対象に厳しい判断を下させるとかね。
Re: (スコア:0)
ディープラーニングだと「どの前例に近いと思います」「前例に従えばこれが近いと思います」という回答しかしてくれないけどな。
だから与えた前例が偏ってれば結果も偏るし、結果が偏ってればなぜ偏ったのかは人間が考えるしかない。
で、そういう無責任なディープラーニングが古典的エキスパートシステムのような他の手法を圧倒的に力技で打ち破ってる現状があるから、
説明できないのを割り切って使ってるのに無知だ、技術を捨てて競合に負けろということかというコメが集まってるわけ。
もちろんキッチリ筋道立てて御説明できるディープラーニング以外のAI手法は理論上存在するけど、今回のAIブームとは全く関係がないし、近い将来絡めることもできない。
Re: (スコア:0)
ないない。
別コメにAmazonの失敗談あるけど、機械学習の教師データがすでに偏見が入ってるから、それを真似るだけ。
基本的人権 (スコア:0)
基本的人権を侵してるかもしれない人間のデータを使ってはいけない?
今のところ使えるものだと、機械学習も深層学習もダメで、強化学習だけねってことか??
SFと現実のAIの区別がつかない人 (スコア:0)
この原則を作った人は、SFに出てくるような人工知能を想定してるのかもしれんが、
現実のAIはそれらにはるかに及ばない
機械学習と、SFに出てくるAIはまったく別なのに、
ただの機械学習をSFの人工知能とごっちゃにしてるのでは?