パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

米AmazonのAIによる履歴書判定システム、男性有利な判定が判明して開発中止になっていた」記事へのコメント

  • ただ単に過去10年間のデータのうち
    ・履歴書データに男性が多かった
    ・従業員割合として男性が多い

    そのため、女性を原点としたわけで別に差別的だったわけじゃなくって
    学習のさせ方と学習データが間違っていた

    • by Anonymous Coward on 2018年10月14日 19時32分 (#3497655)

      それは違う、本当に性別と仕事の能力に相関がないのなら特徴量から削除してる
      ある程度学習を進めたアルゴリズムまで作ったってことは、能力に対して性別が一定以上を関係しているのが探索段階で分かったってこと
      学習フェーズで特徴として採用されたが、性別によって有利/不利で女性が不利にスコアリングされるのが「現実問題として」都合が悪いから使用を中止しただけ
      つまり、Amazonの人事評価制度が男性有利になっているか、そもそもAmazonに応募する女性には能力の低い人が多かったかのどちらか
      前者なら入力データから性別情報を削除した上で男女平等な人事制度への改正と継続的なモデルの改善を行えば補正できるけど、後者の場合は「事実」を反映しているので治しようがない
      で、Amazonが時間経過による改善を待たずに、開発自体をやめたということは後者なんでしょう
      倉庫番などの力仕事で女性が不利になりやすいのは事実だと思うので

      # コメント者は、人口全体で見れば性別による能力の高低はないと考えています

      親コメント
      • by Anonymous Coward

        その分野、企業が女性から忌避されていて、企業は男女比をできるだけ等しくしようと努力していたのなら
        応募の男女比に対して、採用の男女比が高くなり男性と女性を比較して女性の方が能力の低い人が採用されがちで、
        「女性」というカテゴリのスコアが低くなることはあり得ると思う。

        企業がやっていなくても、大学が応募に対して男女比が等しくなるよう操作をやっていたら同じことになる

        --
        最近問題になってる色々な大学の医学部が女性の合格率を下げようとしていた件のようなデータを与えたら、
        不合格にすることができなかった優秀な人材ばかりだから、逆に「女性」カテゴリの評価が高くなるかも。

最初のバージョンは常に打ち捨てられる。

処理中...