アカウント名:
パスワード:
ただ単に過去10年間のデータのうち・履歴書データに男性が多かった・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって学習のさせ方と学習データが間違っていた
それは違う、本当に性別と仕事の能力に相関がないのなら特徴量から削除してるある程度学習を進めたアルゴリズムまで作ったってことは、能力に対して性別が一定以上を関係しているのが探索段階で分かったってこと学習フェーズで特徴として採用されたが、性別によって有利/不利で女性が不利にスコアリングされるのが「現実問題として」都合が悪いから使用を中止しただけつまり、Amazonの人事評価制度が男性有利になっているか、そもそもAmazonに応募する女性には能力の低い人が多かったかのどちらか前者なら入力データから性別情報を削除した上で男女平等な人事制度への改正と継続的なモデルの改善を行えば補正できるけど、後者の場合は「事実」を反映しているので治しようがないで、Amazonが時間経過による改善を待たずに、開発自体をやめたということは後者なんでしょう倉庫番などの力仕事で女性が不利になりやすいのは事実だと思うので
# コメント者は、人口全体で見れば性別による能力の高低はないと考えています
その分野、企業が女性から忌避されていて、企業は男女比をできるだけ等しくしようと努力していたのなら応募の男女比に対して、採用の男女比が高くなり男性と女性を比較して女性の方が能力の低い人が採用されがちで、「女性」というカテゴリのスコアが低くなることはあり得ると思う。
企業がやっていなくても、大学が応募に対して男女比が等しくなるよう操作をやっていたら同じことになる
--最近問題になってる色々な大学の医学部が女性の合格率を下げようとしていた件のようなデータを与えたら、不合格にすることができなかった優秀な人材ばかりだから、逆に「女性」カテゴリの評価が高くなるかも。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
犯人はmoriwaka -- Anonymous Coward
学習データが間違っていたっていうだけでしょ (スコア:1)
ただ単に過去10年間のデータのうち
・履歴書データに男性が多かった
・従業員割合として男性が多い
そのため、女性を原点としたわけで別に差別的だったわけじゃなくって
学習のさせ方と学習データが間違っていた
Re: (スコア:1)
それは違う、本当に性別と仕事の能力に相関がないのなら特徴量から削除してる
ある程度学習を進めたアルゴリズムまで作ったってことは、能力に対して性別が一定以上を関係しているのが探索段階で分かったってこと
学習フェーズで特徴として採用されたが、性別によって有利/不利で女性が不利にスコアリングされるのが「現実問題として」都合が悪いから使用を中止しただけ
つまり、Amazonの人事評価制度が男性有利になっているか、そもそもAmazonに応募する女性には能力の低い人が多かったかのどちらか
前者なら入力データから性別情報を削除した上で男女平等な人事制度への改正と継続的なモデルの改善を行えば補正できるけど、後者の場合は「事実」を反映しているので治しようがない
で、Amazonが時間経過による改善を待たずに、開発自体をやめたということは後者なんでしょう
倉庫番などの力仕事で女性が不利になりやすいのは事実だと思うので
# コメント者は、人口全体で見れば性別による能力の高低はないと考えています
Re:学習データが間違っていたっていうだけでしょ (スコア:0)
その分野、企業が女性から忌避されていて、企業は男女比をできるだけ等しくしようと努力していたのなら
応募の男女比に対して、採用の男女比が高くなり男性と女性を比較して女性の方が能力の低い人が採用されがちで、
「女性」というカテゴリのスコアが低くなることはあり得ると思う。
企業がやっていなくても、大学が応募に対して男女比が等しくなるよう操作をやっていたら同じことになる
--
最近問題になってる色々な大学の医学部が女性の合格率を下げようとしていた件のようなデータを与えたら、
不合格にすることができなかった優秀な人材ばかりだから、逆に「女性」カテゴリの評価が高くなるかも。