アカウント名:
パスワード:
買い物ステレオタイプの妻は沢山買い物するから限度額が高いとかくだらない指摘
コンピューターの判断でも差別は差別
>コンピューターの判断でも差別は差別
判断させるアルゴリズムを仕込んだ人がいるよね。与信スコアよりも性別を優先させた人。
#「コンピューター」って最近あんまり書か/言わないね。
以前にもあった「AIが女性エンジニアの履歴書を低く判断」ってのと同じだね。そう判断しちゃうのはビッグデータがそう(男性エンジニアが圧倒的多数なのでAIは高く評価する)だから。それと同様のことが起きたんだろう。
だからといってそれは差別であることに違いはないし、看過しちゃダメだよね
なんで優先させるアルゴリズムが仕込まれてるって確定出来るの?学習させたデータにあった偏りが出てしまった可能性はないの?
何をもって偏りと言うかでもあるけど性別を省いたデータを与えたのに「女子大出身者は、生涯年収が低い。マイナス要因」などと出たケースがあっただから現時点での正確な事実だけを使えば差別や偏見はなくなる平等だとは必ずしも言えないことが分かってる
?元データに性別判定するものが何もないのに出力には性別という属性を推定して出してきたってこと?それとも女子大出身者は性別ではないとかいう謎理屈?
「女子大出身者」を「女子」と判断するのは人間なら文字面や知識でできるけどAIにはそう覚えさせないといけないってことじゃない?
今アメリカで問題になってるのは「AIで正確に予測したら、社会的強者のスコアが高く出た」ケース
「社会的強者の方が仕事が出来るので、弱者は帰れ」では機会の平等が達成されない弱者に下駄履かせるのは、可哀想な弱者を保護してやるためでもあるけど、社会の多様性を確保して社会が長期的に見て局所最適に陥らないよう、数十年〜規模で衰退しないようにするためでもある
だから「働いている可能性の低い女の場合や、女の可能性が高い経歴は、警戒して与信枠を低く抑えるべき」という「正確な計算結果」が出てしまった場合、それは差別であり排除すべき偏見ということになる仮に科学的事実であっても人権が優先するわけ
>今アメリカで問題になってるのは「AIで正確に予測したら、社会的強者のスコアが高く出た」ケース
AIって自然発生する神様ではないので、「正確に予測」ではなくて、コーディング(教師データの傾向、とかでもいいけど)されたとおりにしか判定しないよね。
つまるところ、「正確に予測した」ではなくて、元々「社会的強者」を高くスコア付けるアルゴリズムだっただけでは?
そう言っているのでは?というかAIが神様的に予測出すのだという前提は書いてないんじゃないか
いいえAIのソフトはみんな同じだし何度も言ってるように「正確=中立=合法」という発想は間違いという話
人権が優先するというルールは数学的にどう表現するの?結局それが難しいという話に行き着くような気がする
面倒だけれと、例えば未成年だとそれだけで制限が加えられるといった従来からの法的規制と同様の手書きによるルールを組み込んで行くしかないのでは?
まあ社会的・経済的に大多数から支持されるルールの作成はもっと面倒な作業になるだろうし、例えばマイノリティに所属することで生じる不利な扱いをルールに則って補償して欲しければ、自らマイノリティであることを申告する必要が生じたりする訳だが。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
海軍に入るくらいなら海賊になった方がいい -- Steven Paul Jobs
逆にしたら逆で叩かれるんじゃね (スコア:0)
買い物ステレオタイプの妻は沢山買い物するから限度額が高いとか
くだらない指摘
Re: (スコア:0)
コンピューターの判断でも差別は差別
Re:逆にしたら逆で叩かれるんじゃね (スコア:1)
>コンピューターの判断でも差別は差別
判断させるアルゴリズムを仕込んだ人がいるよね。
与信スコアよりも性別を優先させた人。
#「コンピューター」って最近あんまり書か/言わないね。
AIは差別をしないが現状追認をする (スコア:1)
>コンピューターの判断でも差別は差別
判断させるアルゴリズムを仕込んだ人がいるよね。
与信スコアよりも性別を優先させた人。
#「コンピューター」って最近あんまり書か/言わないね。
以前にもあった「AIが女性エンジニアの履歴書を低く判断」ってのと同じだね。
そう判断しちゃうのはビッグデータがそう(男性エンジニアが圧倒的多数なのでAIは高く評価する)だから。
それと同様のことが起きたんだろう。
だからといってそれは差別であることに違いはないし、看過しちゃダメだよね
Re:逆にしたら逆で叩かれるんじゃね (スコア:1)
判断させるアルゴリズムを仕込んだ人がいるよね。
与信スコアよりも性別を優先させた人。
なんで優先させるアルゴリズムが仕込まれてるって確定出来るの?
学習させたデータにあった偏りが出てしまった可能性はないの?
Re: (スコア:0)
何をもって偏りと言うかでもあるけど
性別を省いたデータを与えたのに「女子大出身者は、生涯年収が低い。マイナス要因」などと出たケースがあった
だから現時点での正確な事実だけを使えば差別や偏見はなくなる平等だとは必ずしも言えないことが分かってる
Re: (スコア:0)
?
元データに性別判定するものが何もないのに出力には性別という属性を推定して出してきたってこと?
それとも女子大出身者は性別ではないとかいう謎理屈?
Re: (スコア:0)
「女子大出身者」を「女子」と判断するのは人間なら文字面や知識でできるけど
AIにはそう覚えさせないといけないってことじゃない?
Re: (スコア:0)
今アメリカで問題になってるのは「AIで正確に予測したら、社会的強者のスコアが高く出た」ケース
「社会的強者の方が仕事が出来るので、弱者は帰れ」では機会の平等が達成されない
弱者に下駄履かせるのは、可哀想な弱者を保護してやるためでもあるけど、社会の多様性を確保して
社会が長期的に見て局所最適に陥らないよう、数十年〜規模で衰退しないようにするためでもある
だから「働いている可能性の低い女の場合や、女の可能性が高い経歴は、警戒して与信枠を低く抑えるべき」
という「正確な計算結果」が出てしまった場合、それは差別であり排除すべき偏見ということになる
仮に科学的事実であっても人権が優先するわけ
Re: (スコア:0)
>今アメリカで問題になってるのは「AIで正確に予測したら、社会的強者のスコアが高く出た」ケース
AIって自然発生する神様ではないので、「正確に予測」ではなくて、
コーディング(教師データの傾向、とかでもいいけど)されたとおりにしか判定しないよね。
つまるところ、「正確に予測した」ではなくて、元々「社会的強者」を高くスコア付けるアルゴリズムだっただけでは?
Re: (スコア:0)
そう言っているのでは?
というかAIが神様的に予測出すのだという前提は書いてないんじゃないか
Re: (スコア:0)
いいえ
AIのソフトはみんな同じだし何度も言ってるように「正確=中立=合法」という発想は間違いという話
Re: (スコア:0)
人権が優先するというルールは数学的にどう表現するの?
結局それが難しいという話に行き着くような気がする
Re: (スコア:0)
面倒だけれと、例えば未成年だとそれだけで制限が加えられるといった従来からの法的規制と同様の手書きによるルールを組み込んで行くしかないのでは?
まあ社会的・経済的に大多数から支持されるルールの作成はもっと面倒な作業になるだろうし、例えばマイノリティに所属することで生じる不利な扱いをルールに則って補償して欲しければ、自らマイノリティであることを申告する必要が生じたりする訳だが。