アカウント名:
パスワード:
買い物ステレオタイプの妻は沢山買い物するから限度額が高いとかくだらない指摘
コンピューターの判断でも差別は差別
>コンピューターの判断でも差別は差別
判断させるアルゴリズムを仕込んだ人がいるよね。与信スコアよりも性別を優先させた人。
#「コンピューター」って最近あんまり書か/言わないね。
なんで優先させるアルゴリズムが仕込まれてるって確定出来るの?学習させたデータにあった偏りが出てしまった可能性はないの?
何をもって偏りと言うかでもあるけど性別を省いたデータを与えたのに「女子大出身者は、生涯年収が低い。マイナス要因」などと出たケースがあっただから現時点での正確な事実だけを使えば差別や偏見はなくなる平等だとは必ずしも言えないことが分かってる
?元データに性別判定するものが何もないのに出力には性別という属性を推定して出してきたってこと?それとも女子大出身者は性別ではないとかいう謎理屈?
「女子大出身者」を「女子」と判断するのは人間なら文字面や知識でできるけどAIにはそう覚えさせないといけないってことじゃない?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
Stableって古いって意味だっけ? -- Debian初級
逆にしたら逆で叩かれるんじゃね (スコア:0)
買い物ステレオタイプの妻は沢山買い物するから限度額が高いとか
くだらない指摘
Re: (スコア:0)
コンピューターの判断でも差別は差別
Re: (スコア:1)
>コンピューターの判断でも差別は差別
判断させるアルゴリズムを仕込んだ人がいるよね。
与信スコアよりも性別を優先させた人。
#「コンピューター」って最近あんまり書か/言わないね。
Re: (スコア:1)
判断させるアルゴリズムを仕込んだ人がいるよね。
与信スコアよりも性別を優先させた人。
なんで優先させるアルゴリズムが仕込まれてるって確定出来るの?
学習させたデータにあった偏りが出てしまった可能性はないの?
Re:逆にしたら逆で叩かれるんじゃね (スコア:0)
何をもって偏りと言うかでもあるけど
性別を省いたデータを与えたのに「女子大出身者は、生涯年収が低い。マイナス要因」などと出たケースがあった
だから現時点での正確な事実だけを使えば差別や偏見はなくなる平等だとは必ずしも言えないことが分かってる
Re: (スコア:0)
?
元データに性別判定するものが何もないのに出力には性別という属性を推定して出してきたってこと?
それとも女子大出身者は性別ではないとかいう謎理屈?
Re: (スコア:0)
「女子大出身者」を「女子」と判断するのは人間なら文字面や知識でできるけど
AIにはそう覚えさせないといけないってことじゃない?