パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」記事へのコメント

  • AIが”合理的に”判断した結果を、人類は受け入れられる準備が整っているんですかね。 今回はいろいろ不十分だったので助かったようですが。
    • Re: (スコア:3, すばらしい洞察)

      by Anonymous Coward

      今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから
      今回の場合は単純に過去の採用結果に男性偏重という傾向があって、
      今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。

      元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから
      政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。

      • by Anonymous Coward on 2018年10月15日 0時37分 (#3497758)

        今回の件では強化学習はできないだろうから、教師あり学習をしたのでしょうか。
        その場合、何を教師データとして学習したのかが気になります。

        過去の履歴書データを入力として、これまでの人間による履歴書の評価値に等しくなるよう学習したのか?
        過去の履歴書データを入力として、これまで採用した人のパフォーマンスに等しくなるよう学習したのか?

        前者なら過去の採用で男性偏重のバイアスがかかってたら、AIでもそれを再現してしまう。
        後者なら、(きちんとパフォーマンスが測れる限りは)AIで男性偏重のバイアスはかからないでしょう。

        親コメント

皆さんもソースを読むときに、行と行の間を読むような気持ちで見てほしい -- あるハッカー

処理中...