アカウント名:
パスワード:
今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから今回の場合は単純に過去の採用結果に男性偏重という傾向があって、今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。
元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。
今回の件では強化学習はできないだろうから、教師あり学習をしたのでしょうか。その場合、何を教師データとして学習したのかが気になります。
過去の履歴書データを入力として、これまでの人間による履歴書の評価値に等しくなるよう学習したのか?過去の履歴書データを入力として、これまで採用した人のパフォーマンスに等しくなるよう学習したのか?
前者なら過去の採用で男性偏重のバイアスがかかってたら、AIでもそれを再現してしまう。後者なら、(きちんとパフォーマンスが測れる限りは)AIで男性偏重のバイアスはかからないでしょう。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
Stableって古いって意味だっけ? -- Debian初級
まだ早すぎる? (スコア:1)
Re: (スコア:3, すばらしい洞察)
今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから
今回の場合は単純に過去の採用結果に男性偏重という傾向があって、
今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。
元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから
政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。
Re:まだ早すぎる? (スコア:1)
今回の件では強化学習はできないだろうから、教師あり学習をしたのでしょうか。
その場合、何を教師データとして学習したのかが気になります。
過去の履歴書データを入力として、これまでの人間による履歴書の評価値に等しくなるよう学習したのか?
過去の履歴書データを入力として、これまで採用した人のパフォーマンスに等しくなるよう学習したのか?
前者なら過去の採用で男性偏重のバイアスがかかってたら、AIでもそれを再現してしまう。
後者なら、(きちんとパフォーマンスが測れる限りは)AIで男性偏重のバイアスはかからないでしょう。