パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」記事へのコメント

  • by momo_4th (39293) on 2018年10月14日 17時41分 (#3497588) 日記
    AIが”合理的に”判断した結果を、人類は受け入れられる準備が整っているんですかね。 今回はいろいろ不十分だったので助かったようですが。
    • Re:まだ早すぎる? (スコア:3, すばらしい洞察)

      by Anonymous Coward on 2018年10月14日 18時07分 (#3497602)

      今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから
      今回の場合は単純に過去の採用結果に男性偏重という傾向があって、
      今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。

      元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから
      政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。

      親コメント
      • by Anonymous Coward on 2018年10月15日 0時37分 (#3497758)

        今回の件では強化学習はできないだろうから、教師あり学習をしたのでしょうか。
        その場合、何を教師データとして学習したのかが気になります。

        過去の履歴書データを入力として、これまでの人間による履歴書の評価値に等しくなるよう学習したのか?
        過去の履歴書データを入力として、これまで採用した人のパフォーマンスに等しくなるよう学習したのか?

        前者なら過去の採用で男性偏重のバイアスがかかってたら、AIでもそれを再現してしまう。
        後者なら、(きちんとパフォーマンスが測れる限りは)AIで男性偏重のバイアスはかからないでしょう。

        親コメント
      • by Anonymous Coward

        暴いてはないんだよな。もしパラメーター的に男性優位になる部分があったらそれを取り除けばいいだけだし。AIの問題は、人間側からは全く想像もつかないような判断基準で的確にアプローチしてくること。だから、コンプライアンスで別のルールを満たさなきゃいけない場合は、現実と衝突する。

        • by Anonymous Coward

          都合の良い結果でなければ公平ってことに人間の側がしようとしてないんだからな
          求めているのは政治的に正しいAIであって公平に合理的なAIではないということ

          • by Anonymous Coward

            政治的に正しいAIって何だ?
            AI作成者が政治的な偏りのあるAIを作るって事?

            政治は立場によって価値観・価値の重みが変わるが、バイアスをかけずにAI自身の中で一定の価値観を持つなどという矛盾を人々は求めているのか?

            • by Anonymous Coward

              民主的国家が繁栄したのは結局のところ民主的国家が戦争でも勝利したからという側面があるわけでしょ。
              お金持ちの家柄の出身を優遇するようでは国家が衰退するということだと思うよ。
              実際どこかの国は急激に衰退してるわけで。

    • by Anonymous Coward on 2018年10月14日 21時07分 (#3497686)

      そういやステルス機を作ったベン・リッチが嘆いていたな。
      最高機密であるステルス機の製造でも、平等雇用委員会、差別撤廃・少数民族雇用政策に逆らうことはできなかったと。
      ラテン系の技術者をやっとっていないことで注意を受けて、「彼ら(ラテン系)は技術系の学校に行ってないからだ」と返事したが、もちろん許されない。
      特殊な作業のため、民族、信条、肌の色に関係なく熟練者が必要だとして、ステルスプロジェクトへの適用免除を申請しても却下されたとか。

      合理的よりも法律が優先されるのは、まあ当然。
      まずはAIに法律が合理的か判断させる必要があるが、そこまでは進歩しちゃいない。

      親コメント
    • by Anonymous Coward on 2018年10月14日 18時08分 (#3497605)

      永遠にできないから心配しなくていい

      親コメント
    • by Anonymous Coward

      過去合理的だったものが、未来も合理的かどうかという問題と思いました。
      短絡的な方法としては、学習時に時間のパラメータを重視するようにすれば、
      10年前と去年を比べて、女子比率が高まっていれば、女子を優遇するとか?
      でも、それで問題の解決になっている気がしない・・・

    • by Anonymous Coward

      >AIが”合理的に”判断した結果を、
      そもそもここで言ういわゆるAIは、合理的な判断などしてはない。
      自身でさえ理由も分からずに、過去データを元にした教師信号を「猿真似」してるだけだから。

      過去の採用が合理的に行われていれば、その猿真似も合理的に振る舞ってるように見えるだろう。
      しかし過去の採用が差別的に行われていたら、その猿真似もやはり差別的になる.

      今回のは後者。

    • by Anonymous Coward

      AIが”合理的に”判断(差別)した結果を・・・

      • by simon (1336) on 2018年10月15日 11時26分 (#3497878)

        AIが”合理的に”判断(差別)した結果を・・・

        「合理的に判断」じゃなくて「過去の事例に合うように自動的に判断」
        過去の女性エンジニアの雇用事例がきわめて少なかったのでAIはそこから女性の履歴書のスコアリングを自動的に機械的に低くしただけ。そこに合理性はない。

        親コメント
    • by Anonymous Coward

      所詮人工知能は、現時点ではその程度。差別発言で中止になった例もあるし…。
      登場して歴史が浅いので、そういう意味ではこういうのは何ら驚かないよね。
      とはいえ人工知能の台頭で仕事が減り(なくなりはしない)、ニート急増は有り得る。

長期的な見通しやビジョンはあえて持たないようにしてる -- Linus Torvalds

処理中...