アカウント名:
パスワード:
法律で禁止されている差別や追跡を「AI」をかまして正当化するような事は認められるべきじゃない。現状では意図しない結果のように思えるけど、禁止しないと隠れ蓑としてどこまでも行きかねない。特に「企業秘密」「著作権」を口実としたデータセットの秘匿が覆せなければ、外観的には明らかな事案でも証明する事は極めて難しくなる。起訴するには至らないレベルとかで横行しかねない。
そもそも様々な差別禁止のルールがある人材採用にAIを使うだなんて正気とは思えん。それこそ記載されていない思想信条その他の要素まで既知の情報から導き出して差別を行うとか普通に起こり得るだろ。法令上遵守すべき項目が決まっているような状況の時にAIを使う際は、そもそも導入時に慎重になって、やるなら最新の注意を払った上で行わなければいけないでしょうに。「AIだからそういう事態が避けられない」とかならやるな。
加えて人事採用の場合は人間がやる場合は落ちた理由がはっきりとは分からないのをいい事に法律上その他で許されていない差別が日常的に行われ、かつ現場の人間はそれが許されているかのように思っているという場合もある。AIの設計にもその感覚を持ち込んだりすれば差別の固定化であり大問題だ。悪い事とは言えないが、データセットを作りAIに置き換えた場合にはそうした不正が露呈するようなリスクも存在する。この際、AIに限らず隠蔽された不当な行為が行われていないかを再確認してもいいかもしれない。
日本の採用で本籍訊いちゃいけないことになってるのと理屈は同じだよね直接的にでなくても差別的意図を持って間接的に利用される恐れがある
でも区別しないと仕事できない奴が社内に現れ会社が潰れるんだよねそれでもいいならどうぞ、障害者雇用も同じ、特定子会社みたいに、特定出身者子会社もあってもいいんじゃね
それで本籍区別しないと出来ない仕事ってなにさ。障害者雇用は下駄を履かせるって話だろうけど、一般的な雇用とは全く別の話で、ここで取り上げてる問題と違うのはわかってるよね?
性別区別しないとできない仕事もごく一部にはあるけどさ、そういう仕事なら最初から要件に隠し,合理的に説明するのも簡単。某医科大みたいなのはそうじゃない。
要件に隠し
かくしてどーする
「お前らの中に無能がいる連帯責任自己責任」は上の無策を隠す内ゲバ誘導やで氷河期は御し易くて助かりますなあ
人事採用に限らないコンテンツ検閲で特定の思想や文化を集中的に取り締まって「浄化」したりが普通に行われてる例えば仮にチベット問題とアフガン問題があったとしてチベット問題の文脈ならテロの企みを取り締まるがアフガン問題では見逃すと言った誘導が可能現状ではやるかやらないかは収益と社の思想次第で対外的には全て法令遵守のためです安心なご利用の犠牲ですAIの調整が難しいんですで済まされているプログラムらしきものを政府機関に開示するだけの義務に実効性がなくてもまずはそういう思想統制が見つかった時に追求する糸口にはなる
法律で禁止されている差別や侮辱を「リベラルや平和やフェミニズムや#MeToo」をかまして正当化するような事は認められるべきじゃない。現状では意図しない結果のように思えるけど、禁止しないと隠れ蓑としてどこまでも行きかねない。
禁止に「フェミだから禁止」「リベラルだからOK」が入り込むとどんどん民主主義の屋台骨が腐っていくだから法律でガバガバに基準を開示させて「差別や侮辱だからNG」にコントロールしないといけない禁止のレイヤーから上がって禁止を禁止しないとディストピアまっしぐら
「ヤクザに関わりある人は来ないで」は問題ないが、「極左暴力活動家はダメ」も許されるぜ。破防法持ち出すと共産党系の人は諦めてだんまりするしさ。
> 破防法持ち出すと共産党系の人は諦めてだんまり
何にだんまりするんだ?
学習内容も示さずにAIに聞いてみたって言う酷い偏向番組がありましたね
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
最初のバージョンは常に打ち捨てられる。
そりゃそうだな (スコア:3, すばらしい洞察)
法律で禁止されている差別や追跡を「AI」をかまして正当化するような事は認められるべきじゃない。
現状では意図しない結果のように思えるけど、禁止しないと隠れ蓑としてどこまでも行きかねない。
特に「企業秘密」「著作権」を口実としたデータセットの秘匿が覆せなければ、外観的には明らかな事案でも証明する事は極めて難しくなる。
起訴するには至らないレベルとかで横行しかねない。
そもそも様々な差別禁止のルールがある人材採用にAIを使うだなんて正気とは思えん。
それこそ記載されていない思想信条その他の要素まで既知の情報から導き出して差別を行うとか普通に起こり得るだろ。
法令上遵守すべき項目が決まっているような状況の時にAIを使う際は、そもそも導入時に慎重になって、やるなら最新の注意を払った上で行わなければいけないでしょうに。
「AIだからそういう事態が避けられない」とかならやるな。
加えて人事採用の場合は人間がやる場合は落ちた理由がはっきりとは分からないのをいい事に法律上その他で許されていない差別が日常的に行われ、かつ現場の人間はそれが許されているかのように思っているという場合もある。
AIの設計にもその感覚を持ち込んだりすれば差別の固定化であり大問題だ。
悪い事とは言えないが、データセットを作りAIに置き換えた場合にはそうした不正が露呈するようなリスクも存在する。
この際、AIに限らず隠蔽された不当な行為が行われていないかを再確認してもいいかもしれない。
Re: (スコア:0)
日本の採用で本籍訊いちゃいけないことになってるのと理屈は同じだよね
直接的にでなくても差別的意図を持って間接的に利用される恐れがある
Re: (スコア:0)
でも区別しないと仕事できない奴が社内に現れ会社が潰れるんだよね
それでもいいならどうぞ、障害者雇用も同じ、特定子会社みたいに、特定出身者子会社もあってもいいんじゃね
Re:そりゃそうだな (スコア:1)
それで本籍区別しないと出来ない仕事ってなにさ。
障害者雇用は下駄を履かせるって話だろうけど、一般的な雇用とは全く別の話で、
ここで取り上げてる問題と違うのはわかってるよね?
性別区別しないとできない仕事もごく一部にはあるけどさ、そういう仕事なら最初から要件に隠し,
合理的に説明するのも簡単。某医科大みたいなのはそうじゃない。
Re:そりゃそうだな (スコア:2)
かくしてどーする
Re: (スコア:0)
「お前らの中に無能がいる連帯責任自己責任」は上の無策を隠す内ゲバ誘導やで
氷河期は御し易くて助かりますなあ
Re: (スコア:0)
人事採用に限らない
コンテンツ検閲で特定の思想や文化を集中的に取り締まって「浄化」したりが普通に行われてる
例えば仮にチベット問題とアフガン問題があったとしてチベット問題の文脈ならテロの企みを取り締まるがアフガン問題では見逃すと言った誘導が可能
現状ではやるかやらないかは収益と社の思想次第で対外的には全て法令遵守のためです安心なご利用の犠牲ですAIの調整が難しいんですで済まされている
プログラムらしきものを政府機関に開示するだけの義務に実効性がなくてもまずはそういう思想統制が見つかった時に追求する糸口にはなる
Re: (スコア:0)
法律で禁止されている差別や侮辱を「リベラルや平和やフェミニズムや#MeToo」をかまして正当化するような事は認められるべきじゃない。
現状では意図しない結果のように思えるけど、禁止しないと隠れ蓑としてどこまでも行きかねない。
Re: (スコア:0)
禁止に「フェミだから禁止」「リベラルだからOK」が入り込むとどんどん民主主義の屋台骨が腐っていく
だから法律でガバガバに基準を開示させて「差別や侮辱だからNG」にコントロールしないといけない
禁止のレイヤーから上がって禁止を禁止しないとディストピアまっしぐら
Re: (スコア:0)
「ヤクザに関わりある人は来ないで」は問題ないが、「極左暴力活動家はダメ」も許されるぜ。破防法持ち出すと共産党系の人は諦めてだんまりするしさ。
Re: (スコア:0)
> 破防法持ち出すと共産党系の人は諦めてだんまり
何にだんまりするんだ?
Re: (スコア:0)
学習内容も示さずにAIに聞いてみたって言う酷い偏向番組がありましたね