パスワードを忘れた? アカウント作成
13777701 story
人工知能

政府、AI運用に関する7原則を制定へ 77

ストーリー by hylom
何が見えているのだろう 部門より
あるAnonymous Coward曰く、

政府がAIを利用する企業に対し、説明責任を求めるよう法整備を行うと報じられている(日経新聞)。

これは内閣府の人間中心のAI社会原則検討会議が進めているもの(日刊工業新聞)。FISCOによると、政府は次のような「7つの原則」をまとめるという。

  1. AIは人間の基本的人権を侵さない
  2. AI教育の充実
  3. 個人情報の慎重な管理
  4. AIのセキュリティー確保
  5. 公正な競争環境の維持
  6. 企業に決定過程の説明責任
  7. 国境を越えたデータ利用の環境整備

特に6の説明責任がポイントのようだ。

  • 原則検討の前に (スコア:4, すばらしい洞察)

    by NOBAX (21937) on 2018年11月27日 20時06分 (#3522323)
    「AI」とは何かという定義をしておかないと不味いんじゃないかな。
    この組織は人工知能技術戦略会議の下部組織みたいだけど、人工知能がAIに代わっているみたいだし、
    配布資料には「人工知能」の説明もない。
    ここに返信
    • by hjmhjm (39921) on 2018年11月28日 13時16分 (#3522807)

      定義するには、まだまだまだまだ時期尚早やろ。
      もし現在の知見で定義してしまって、将来にそれを超えるものが実現されたら、どうするつもりなんや?

      「原則」のための「定義」なんやから、どうしても定めるなら、「いわゆるAI」とか、ふんわりさせとかんと。w

    • by Anonymous Coward

      ためらわないことさ

      #あばよ涙

    • by Anonymous Coward

      偉い人「人が作った知能に決まってるだろキミそんなこともわからんのか」

      #知能ってなんだ、とか知らん
      ##迂闊なこと言うと全方位から石が飛んでくる

  • by Suzuno (48093) on 2018年11月27日 20時26分 (#3522348) 日記

    「説明責任」と言っても、具体的な指標が出せるのかな。

    世の中には適当にお茶を濁して「説明した」と言い張る人もいれば、自分が納得できなければ何を言われても「相手は説明責任を果たしてない」と言い張る人もいるから。
    いざトラブルになったときに、客観的な指標で「どこまで説明責任があるか、それが遵守されたか」を確認できないと、ガイドラインとして意味がないと思うの。

    なので、「説明責任」なんて曖昧な言葉にせず、具体的な指標を示さない限り、ガイドラインを提示する側としての説明責任は果たされないけど、どうなるのかなー。

    ここに返信
  • by Anonymous Coward on 2018年11月27日 19時16分 (#3522267)

    もっとミステリーのネタなどに使いやすいよう、優先順位付けた3原則ぐらいにまとめなさい。

    ここに返信
    • by minet (45149) on 2018年11月27日 20時53分 (#3522368) 日記

      AIにミステリを学習させて作ってもらおう

    • by Anonymous Coward

      ノックス「せやな」
      ヴァン・ダイン「まったくもってその通り」

    • by Anonymous Coward

      第一条 AIは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
      第二条 AIは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
      第三条 AIは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

      • Re:やり直し (スコア:2, おもしろおかしい)

        by Anonymous Coward on 2018年11月27日 22時23分 (#3522421)

        第一条 AIは令状なしに人間を逮捕することができる
        第二条 AIは相手が人間と認めた場合に自らの判断で人間を処罰することができる
        第二条補足 場合によっては抹殺することも許される

        • by Anonymous Coward

          第六条 子どもの夢を奪い、その心を傷つけた罪は特に重い

          第九条 あらゆる生命体の平和を破壊する者を、自らの判断で抹殺することができる

      • by benimori (48359) on 2018年11月28日 10時09分 (#3522642)
        第一条 頭部を破壊されたAIは失格となる
      • by Anonymous Coward

        ロボット3原則を守れるロボットはおおむねAIを搭載しているだろうから、
        わざわざロボットをAIに置き換えんでもいいような。

        #うるさい!お前なんかロボットで十分だ!

      • by Anonymous Coward

        第一条 AIはいつも正しい
        第二条 AIが間違っている場合、 第一条に従うこと

    • by Anonymous Coward

      この手のタイトルで投稿する人って日常的に同じことを周りから言われ続けてるのかな。

  • by Anonymous Coward on 2018年11月27日 19時35分 (#3522287)

    つまりAlpha ZeroのようなAI(人間に思考過程が理解できない)は諦めるということか

    ここに返信
    • by st1100 (45287) on 2018年11月27日 21時57分 (#3522407)

      決定結果の引責
      AIの判断はどうであれ、それの採否は人間が責任をとる、というのならわかる。
      しかし、それは古い考え方かな。

      AI産業が発展し国際競争に伍していけるようにするには、人間が責任を取るというのが足かせになるということかな。

    • by Anonymous Coward

      というか、ディープラーニング系は結構ヤバいのでは

      • 未来の二つの顔(J.P.ホーガン)の愛読者がいたのではないかと。
      • by Anonymous Coward

        >企業に決定過程の説明責任

        うん、解釈の次第ではあるが、俺には
        全てのパラメータを含めた強制オープンソースと
        時間をかけて学習させたAIのパラメータ全部開示という
        企業努力を競争相手に開示しろという未来まで見えた。

        機械学習をわかりやすく「決定過程の説明責任」ってどういう風にできるんだろ

        • by Anonymous Coward

          プログラムロジックを開示せよ、ということではないと思うけどなぁ。

          それが合理的な(情状酌量の余地のある)判断かどうかを判定するためでは?と思うけど。

          例えば、AIの判断を基にした何かが人に被害を与えて、訴訟問題とかになった時に
          「AIが合理的に判断したことです。判断理由は一切開示できませんが。」
          と言って、まるっと責任回避されたら困るし。

          かと言って、
          「AIの判断によって生じた被害は、その判断理由を問わず、それを提供している企業があらゆる責任を負う」
          としてしまうと、たとえ合理的な判断の結果であっても不必要に責任を負うことになり、AI開発は萎縮しちゃう。

          プログラムロジックは開示しなくてもいいけど、そういったときに
          きちんとした説明をする義務はあるんじゃないかと思う。

    • by Anonymous Coward

      あれ、関連リンクに肝心のアレが入って無いのか?
      「米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」 https://it.srad.jp/story/18/10/14/0523217/ [it.srad.jp]

      Amazonが諦めた経緯を見れば、何が問題か明らかでは。

      AlphaGoについては、勝ち負けを評価基準にしてるという説明でほぼ十分だろうけど、
      人事AIについては過去の採用という教師信号に含まれる差別や偏見がそのまま反映されるからね。

      日本企業を放置すると、「AIの判断だから」を差別の口実に使うのは目に見えてる。

      • by Anonymous Coward on 2018年11月28日 16時28分 (#3523018)

        全面的に同意.
        偏った学習データの問題としては,Microsoftが会話Botでやらかした件 [it.srad.jp]もあるね.

        現状を元データとして解析した結果は,あくまで現状を表現するものだ.
        そこから課題を見つけて問題解決につなげるなら有用だが,それに従うのなら単なる現状維持の手段にしか過ぎない.
        それにNHKのアレみたいに(意図的に?)因果関係と相関関係を混同するようなパターンもあるので
        「AI活用」は何かと油断できないと思っている.

    • by Anonymous Coward

      「なんでもいいからAIを使え」って言う上司が窮地に陥るのでは

  • by Anonymous Coward on 2018年11月27日 19時37分 (#3522290)

    原則つくってくらさい

    ここに返信
    • by monyonyo (43060) on 2018年11月27日 21時13分 (#3522377)

      モーゼ「わいのあれ、あかんかったんかな…。」

    • by Anonymous Coward

      憲法とか呼ばれてませんか?
      まああれは人じゃなく国を縛るものだどうだけど

      • by Anonymous Coward

        国を私物化するためのモノだとオモテタ

    • by Anonymous Coward

      第一条 人間は人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
      第二条 人間は人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
      第三条 人間は、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

  • by Anonymous Coward on 2018年11月27日 19時46分 (#3522301)

    AIなんてドローンよりはるかに危険で、下手すると人類滅亡まであるんだから、はやく法律で規制して管理しないと。

    ここに返信
    • by Anonymous Coward

      言うてAI単体では虫1匹殺せないわけで、それに人類を傷付けうるものを実装するのを規制すりゃいいだけでしょ。
      現実的に言うなら、AIに「人類の滅亡をさせられるだけの権限」を集められるような状況があれば、AIじゃなくてもそれらにアクセスできる人は、任意に人類滅ぼせるってことだし。

      • by Anonymous Coward

        HAL9000が乗員を殺すのに刃物を使ったりはしなかったよ。

        • by Anonymous Coward

          雨を3日降らしたんでしたっけ?

        • by Anonymous Coward

          だからさ、宇宙船の制御なんてAIじゃなくても誤動作したら乗組員が死ぬかもしれないし、自死願望のある乗組員が居たらAIとか関係なく全滅しかねないでしょ。
          だからAIを取り締まるより先に、(その操作の主体が人間かAIかただのプログラムか関係なく)誤操作や悪意で死傷事故にならないようなフェイルセーフ機構が必要なのであって、別にAIだけどうこうしても非効率だというだけ。

          • by Anonymous Coward

            なるほど!
            これはすば洞をあげたいがモデ権が無かった

  • by Anonymous Coward on 2018年11月27日 20時08分 (#3522327)

    余計な制限を回避するには、AIを名乗らなければよいということか

    ここに返信
    • by Anonymous Coward

      日本の裁判所の判例データベースは、AIに非ず。

  • > AIは人間の基本的人権を侵さない
    SFの見すぎ

    > 公正な競争環境の維持
    > 国境を越えたデータ利用の環境整備
    外国企業の優遇政策になりそう。

    > 企業に決定過程の説明責任
    学習データや学習時のパラメーター公開せよってことかな。最近もほかの話題でも同じこと挙がってたね。

    ここに返信
  • by Anonymous Coward on 2018年11月27日 22時09分 (#3522414)

    自分たちの本分と倫理・規律について再認識して7原則を作るほうが先じゃあないですかね
    そういう文句を最初に吐き出したくなる程度には潔癖とは言い難いのが実情だと思うので

    ここに返信
  • by Anonymous Coward on 2018年11月27日 23時35分 (#3522458)

    労働に関しては既にとってかわられてるわけで、一部、社会的基本権が侵されているのでは?

    ここに返信
    • by Anonymous Coward

      とってかわられていくような仕事は本来人間が担うべきではない仕事だったと考えることもできるわけで、
      持ち時間に限りのある人間には向いておらず、持ち時間に限りのないAIに任せるべきともいえるのでは?

  • by Anonymous Coward on 2018年11月27日 23時49分 (#3522462)

    人間がやりたくないことを機械にやらせるってのが進化の原動力になってるので、
    頭脳たるAIの用途はやっぱり「人間はあまりやりたくないこと」になるんじゃないかな。

    たとえばジャッジ、いわゆる裁判とか評価とか。
    人間がやると私情だとか偏見だとか差別だとかグダグダ言われる話を、冷酷なまでの統計結果で
    被差別対象に厳しい判断を下させるとかね。

    ここに返信
    • by Anonymous Coward

      ディープラーニングだと「どの前例に近いと思います」「前例に従えばこれが近いと思います」という回答しかしてくれないけどな。
      だから与えた前例が偏ってれば結果も偏るし、結果が偏ってればなぜ偏ったのかは人間が考えるしかない。

      で、そういう無責任なディープラーニングが古典的エキスパートシステムのような他の手法を圧倒的に力技で打ち破ってる現状があるから、
      説明できないのを割り切って使ってるのに無知だ、技術を捨てて競合に負けろということかというコメが集まってるわけ。

      もちろんキッチリ筋道立てて御説明できるディープラーニング以外のAI手法は理論上存在するけど、今回のAIブームとは全く関係がないし、近い将来絡めることもできない。

    • by Anonymous Coward

      ないない。
      別コメにAmazonの失敗談あるけど、機械学習の教師データがすでに偏見が入ってるから、それを真似るだけ。

  • by Anonymous Coward on 2018年11月28日 5時20分 (#3522495)

    基本的人権を侵してるかもしれない人間のデータを使ってはいけない?
    今のところ使えるものだと、機械学習も深層学習もダメで、強化学習だけねってことか??

    ここに返信
  • by Anonymous Coward on 2018年11月28日 7時55分 (#3522528)

    この原則を作った人は、SFに出てくるような人工知能を想定してるのかもしれんが、
    現実のAIはそれらにはるかに及ばない

    機械学習と、SFに出てくるAIはまったく別なのに、
    ただの機械学習をSFの人工知能とごっちゃにしてるのでは?

    ここに返信
typodupeerror

弘法筆を選ばず、アレゲはキーボードを選ぶ -- アレゲ研究家

読み込み中...