アカウント名:
パスワード:
今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから今回の場合は単純に過去の採用結果に男性偏重という傾向があって、今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。
元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。
今回の件では強化学習はできないだろうから、教師あり学習をしたのでしょうか。その場合、何を教師データとして学習したのかが気になります。
過去の履歴書データを入力として、これまでの人間による履歴書の評価値に等しくなるよう学習したのか?過去の履歴書データを入力として、これまで採用した人のパフォーマンスに等しくなるよう学習したのか?
前者なら過去の採用で男性偏重のバイアスがかかってたら、AIでもそれを再現してしまう。後者なら、(きちんとパフォーマンスが測れる限りは)AIで男性偏重のバイアスはかからないでしょう。
暴いてはないんだよな。もしパラメーター的に男性優位になる部分があったらそれを取り除けばいいだけだし。AIの問題は、人間側からは全く想像もつかないような判断基準で的確にアプローチしてくること。だから、コンプライアンスで別のルールを満たさなきゃいけない場合は、現実と衝突する。
都合の良い結果でなければ公平ってことに人間の側がしようとしてないんだからな求めているのは政治的に正しいAIであって公平に合理的なAIではないということ
政治的に正しいAIって何だ?AI作成者が政治的な偏りのあるAIを作るって事?
政治は立場によって価値観・価値の重みが変わるが、バイアスをかけずにAI自身の中で一定の価値観を持つなどという矛盾を人々は求めているのか?
民主的国家が繁栄したのは結局のところ民主的国家が戦争でも勝利したからという側面があるわけでしょ。お金持ちの家柄の出身を優遇するようでは国家が衰退するということだと思うよ。実際どこかの国は急激に衰退してるわけで。
そういやステルス機を作ったベン・リッチが嘆いていたな。最高機密であるステルス機の製造でも、平等雇用委員会、差別撤廃・少数民族雇用政策に逆らうことはできなかったと。ラテン系の技術者をやっとっていないことで注意を受けて、「彼ら(ラテン系)は技術系の学校に行ってないからだ」と返事したが、もちろん許されない。特殊な作業のため、民族、信条、肌の色に関係なく熟練者が必要だとして、ステルスプロジェクトへの適用免除を申請しても却下されたとか。
合理的よりも法律が優先されるのは、まあ当然。まずはAIに法律が合理的か判断させる必要があるが、そこまでは進歩しちゃいない。
永遠にできないから心配しなくていい
過去合理的だったものが、未来も合理的かどうかという問題と思いました。短絡的な方法としては、学習時に時間のパラメータを重視するようにすれば、10年前と去年を比べて、女子比率が高まっていれば、女子を優遇するとか?でも、それで問題の解決になっている気がしない・・・
>AIが”合理的に”判断した結果を、そもそもここで言ういわゆるAIは、合理的な判断などしてはない。自身でさえ理由も分からずに、過去データを元にした教師信号を「猿真似」してるだけだから。
過去の採用が合理的に行われていれば、その猿真似も合理的に振る舞ってるように見えるだろう。しかし過去の採用が差別的に行われていたら、その猿真似もやはり差別的になる.
今回のは後者。
AIが”合理的に”判断(差別)した結果を・・・
「合理的に判断」じゃなくて「過去の事例に合うように自動的に判断」過去の女性エンジニアの雇用事例がきわめて少なかったのでAIはそこから女性の履歴書のスコアリングを自動的に機械的に低くしただけ。そこに合理性はない。
所詮人工知能は、現時点ではその程度。差別発言で中止になった例もあるし…。登場して歴史が浅いので、そういう意味ではこういうのは何ら驚かないよね。とはいえ人工知能の台頭で仕事が減り(なくなりはしない)、ニート急増は有り得る。
ループも分岐もない「数式」も「アルゴリズム」だと思っていましたが違いましたか?
使う側は因果関係を求めてしまうし、因果関係を抽出できるのが理想ですよね。現状、疑似相関レベルどころか、偶然の一致を学習してしまう危険性も有ると認識しています。(大量のデータで偶然の一致は押し流す方向性ではありますが)
最終段落は有用なパラメータ探しとでも言い換えましょうか。
具体的にどのように的外れかご教授頂ければ幸いです。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
身近な人の偉大さは半減する -- あるアレゲ人
まだ早すぎる? (スコア:1)
Re:まだ早すぎる? (スコア:3, すばらしい洞察)
今のAIはAIといっても所詮データから統計学的に結果を導き出すだけなのだから
今回の場合は単純に過去の採用結果に男性偏重という傾向があって、
今まで人間が色々理由つけてあるいは人間自身も気づかないうちに男性に偏って採用していたのをAIが暴いただけだと思う。
元のデータが政治的に正しくないことを判断し、政治的に正しい回答を出させるのはもう1ステップ先の技術だろうから
政治的に正しくない回答を許容するぐらいの度量見せないと、人間を評価するのにAIを使う試みは当分停滞すると思う。
Re:まだ早すぎる? (スコア:1)
今回の件では強化学習はできないだろうから、教師あり学習をしたのでしょうか。
その場合、何を教師データとして学習したのかが気になります。
過去の履歴書データを入力として、これまでの人間による履歴書の評価値に等しくなるよう学習したのか?
過去の履歴書データを入力として、これまで採用した人のパフォーマンスに等しくなるよう学習したのか?
前者なら過去の採用で男性偏重のバイアスがかかってたら、AIでもそれを再現してしまう。
後者なら、(きちんとパフォーマンスが測れる限りは)AIで男性偏重のバイアスはかからないでしょう。
Re: (スコア:0)
暴いてはないんだよな。もしパラメーター的に男性優位になる部分があったらそれを取り除けばいいだけだし。AIの問題は、人間側からは全く想像もつかないような判断基準で的確にアプローチしてくること。だから、コンプライアンスで別のルールを満たさなきゃいけない場合は、現実と衝突する。
Re: (スコア:0)
都合の良い結果でなければ公平ってことに人間の側がしようとしてないんだからな
求めているのは政治的に正しいAIであって公平に合理的なAIではないということ
Re: (スコア:0)
政治的に正しいAIって何だ?
AI作成者が政治的な偏りのあるAIを作るって事?
政治は立場によって価値観・価値の重みが変わるが、バイアスをかけずにAI自身の中で一定の価値観を持つなどという矛盾を人々は求めているのか?
Re: (スコア:0)
民主的国家が繁栄したのは結局のところ民主的国家が戦争でも勝利したからという側面があるわけでしょ。
お金持ちの家柄の出身を優遇するようでは国家が衰退するということだと思うよ。
実際どこかの国は急激に衰退してるわけで。
Re:まだ早すぎる? (スコア:2, 興味深い)
そういやステルス機を作ったベン・リッチが嘆いていたな。
最高機密であるステルス機の製造でも、平等雇用委員会、差別撤廃・少数民族雇用政策に逆らうことはできなかったと。
ラテン系の技術者をやっとっていないことで注意を受けて、「彼ら(ラテン系)は技術系の学校に行ってないからだ」と返事したが、もちろん許されない。
特殊な作業のため、民族、信条、肌の色に関係なく熟練者が必要だとして、ステルスプロジェクトへの適用免除を申請しても却下されたとか。
合理的よりも法律が優先されるのは、まあ当然。
まずはAIに法律が合理的か判断させる必要があるが、そこまでは進歩しちゃいない。
Re:まだ早すぎる? (スコア:1)
永遠にできないから心配しなくていい
Re: (スコア:0)
過去合理的だったものが、未来も合理的かどうかという問題と思いました。
短絡的な方法としては、学習時に時間のパラメータを重視するようにすれば、
10年前と去年を比べて、女子比率が高まっていれば、女子を優遇するとか?
でも、それで問題の解決になっている気がしない・・・
Re: (スコア:0)
>AIが”合理的に”判断した結果を、
そもそもここで言ういわゆるAIは、合理的な判断などしてはない。
自身でさえ理由も分からずに、過去データを元にした教師信号を「猿真似」してるだけだから。
過去の採用が合理的に行われていれば、その猿真似も合理的に振る舞ってるように見えるだろう。
しかし過去の採用が差別的に行われていたら、その猿真似もやはり差別的になる.
今回のは後者。
Re: (スコア:0)
AIが”合理的に”判断(差別)した結果を・・・
Re:まだ早すぎる? (スコア:2)
AIが”合理的に”判断(差別)した結果を・・・
「合理的に判断」じゃなくて「過去の事例に合うように自動的に判断」
過去の女性エンジニアの雇用事例がきわめて少なかったのでAIはそこから女性の履歴書のスコアリングを自動的に機械的に低くしただけ。そこに合理性はない。
Re: (スコア:0)
所詮人工知能は、現時点ではその程度。差別発言で中止になった例もあるし…。
登場して歴史が浅いので、そういう意味ではこういうのは何ら驚かないよね。
とはいえ人工知能の台頭で仕事が減り(なくなりはしない)、ニート急増は有り得る。
Re: (スコア:0)
ループも分岐もない「数式」も「アルゴリズム」だと思っていましたが違いましたか?
使う側は因果関係を求めてしまうし、因果関係を抽出できるのが理想ですよね。
現状、疑似相関レベルどころか、偶然の一致を学習してしまう危険性も有ると認識しています。
(大量のデータで偶然の一致は押し流す方向性ではありますが)
最終段落は有用なパラメータ探しとでも言い換えましょうか。
具体的にどのように的外れかご教授頂ければ幸いです。