採用に使われる面接用AIが人種差別をする可能性 53
ストーリー by hylom
同質なものを選び出すツールに 部門より
同質なものを選び出すツールに 部門より
あるAnonymous Coward曰く、
Unileverやゴールドマン・サックスなどのグローバル企業では、求職者を選別するために人工知能(AI)を使用しているという。HirevueはそうしたAIを提供している企業の1つで、ミラーの裏に隠されたカメラの前で面接状況を記録し、姿勢や顔の表情、声の調子、言葉の選択などをAIが分析するという。プログラムは成績優秀な従業員から学習したデータを元に、求職者のデータをスコア化できるそうだ。しかし、これによって雇用者が意図しない「差別」が発生する可能性もあるという(DAILY BEAST、The Guardian、Slashdot)。
ほとんどのプログラマーは白人男性であるため、これらのAIの多くは白人男性の顔や男性の声のデータを使って学習している。この結果、黒人の顔や女性の声による面接の場合、AIが性差別的または人種差別的な傾向を引き起こす可能性があるという。
求職者の選別ツールを提供する企業はほかにもあり、たとえばAIチャットボットやインタビューで求職者を振り分けるシステムを提供している企業もある。人気のAIの1つはMyaと呼ばれており、採用までの時間が70%短縮できることを売りにしている。こういったチャットボットが、人種や性別、そのほか差別に繋がるような情報を得るためのプロキシとして使われている可能性もあるようだ。
アメリカ企業の面接 (スコア:2, 興味深い)
アメリカの企業に勤めてたことがありますが、小さい企業の中途採用でも面接の回数がとにかく多く大変でした。
入ってから分かったことは、基本的には求人出す前に実力のわかってる社員の元同僚を誘うのが通例でその場合は2回くらいの面接で採用になるのですが、適切な人がいない場合は外に募集をだすようで、その場合は採用まで少なくとも5回以上の面接があり日本の新卒採用以上です。
そして外から応募してくる人は「出来ます」ってハッタリ言う人ばかりで踏み込んだ質問に答えられずボロが出て1回目の面接で大半が落とされます。
この1回目の面接と経歴書での振り分けしてくれると楽でしょうね。
Re: (スコア:0)
外から応募してくる人は「出来ます」ってハッタリ言う人ばかりで
蕎麦屋の「いま出ました」メソッドに対応できますか?
Re: (スコア:0)
別にアメリカの企業に限らないのでは。
中途採用で面接を担当することありましたが、そんなんばっかですたよ。
確かに履歴書とかから外れもある程度わかりますが、「さべつがー」で弾くことも出来ず、会ってみたけど時間の無駄だったって経験は皆もってるんじゃない?
AIったって、そういう訓練も継承もしようのない何ともいえない感覚を、確実な形にするだけなんだもの。
事前にAIで振り分けようとしたら精度よりも「さべつがー」でいちゃもんつけられるのも皆わかってるのでは。
Re: (スコア:0)
1.人事
2.同じ職種で一緒に働くであろう同僚
3.違う職種だけど同じプロジェクトで一緒に働くであろう同僚(無しの場合もあり)
4.上司
5.事業部長(VP)
上記2の立場で何度か応募者の面接をしていますが、一緒に働ける技術レベルの人かをチェックをします。
ハッタリくんはだいたいここで落とします。
あと、1にたどり着く前に書類でかなりふるいにかけてるようです。
masked面接 (スコア:1)
見た目での判断回避するのに、顔見せないで面接(?)すればいいのに。
#美男美女の方が採用されやすい実験やってたね
Re:masked面接 (スコア:1)
いっそ仕事もマスクして……
# anonymousのマスク、どこ行ったんでしょうね
-- う~ん、バッドノウハウ?
Re: (スコア:0)
見た目での判断回避するのに、顔見せないで面接(?)すればいいのに。
VTコンソールで面接すね
# VTuber路線もあるあ、、(ry
Re: (スコア:0)
その場合でも言葉遣いから性別や人種を判断してしまうようです。
しかも割とあたるらしい。
関連ストーリーにアレは入れないの? (スコア:1)
Googleの画像認識で黒人をゴリラ判定しちゃう件 [it.srad.jp]
これもAIの人種差別……ってほどAIじゃないかもだけど、機械学習という意味ではアレかなと。
人種や性別で差別されるなら (スコア:1)
モーションキャプチャーでいったん甲高い声のネズミとかしゃべる機関車とかに置き換えたうえで、判別させればいいんじゃないですかね?
Re: (スコア:0)
アニ文字でいいんじゃね?
これは差別じゃないでしょ (スコア:1)
AIくんは各人種に対しておもうところはないと思うなー
差別に経済合理性があったらどうするの (スコア:0)
差別は人権を損ねるからいけないわけだけど、採用で差別した方が効率的に価値が生まれるという根拠のある結論が出た時ってどうするの
Re:差別に経済合理性があったらどうするの (スコア:1)
法律で被差別対象の雇用率を定めるんじゃないですかね。
障害者とかそんな感じですし。
Re: (スコア:0)
その行き着く先は米名門大学はアジア系を差別している [newsweekjapan.jp]辺りですかね。
Re: (スコア:0)
例えば人種なんかは現実、社会的環境・教育/身体能力にそれぞれある程度の影響が現れるわけで、そういったパラメータを判断してAIが「客観的な適性判断」してたら、結果的に人種間にかなりの差が発生しちゃいました、って話になりそうだよね。
まあ、元の記事はAIが収集する「優秀な従業員」の学習用データを十分多くすれば済む話なんだろうけど。
Re: (スコア:0)
それって生態学的誤謬の典型じゃん.
Re: (スコア:0)
それって生態学的誤謬の典型じゃん.
まさにその通りでしょうね。だから?
Re: (スコア:0)
人権>生産性でしょ
今の社会で人権はかなり強い
科学の分野でも人権保護・反差別の風潮に従わないといけないからたまに真実が捻じ曲がる
Re:差別に経済合理性があったらどうするの (スコア:1)
異議あり。
セクハラが話題になっているとはいうものの、人権はかなり弱い。ブラック企業も、過労も、いじめも、未だにはびこっている。世界的に見れば、人身売買や圧政国家や政治犯や野党に対する弾圧なんて普通だし。セクハラの件も弱いが故に話題になった訳だし。
ちょっと世間で話題になっているからと言って、それが強いとか、重視されている、というのはあまりに認識不足、理解不足だ。
Re: (スコア:0)
Re: (スコア:0)
経済的合理性が何物にも優先されるが如き言い方だけど、本気でそう思ってそうで凄い。
Re: (スコア:0)
企業は株主に利益をもたらすためにあるんで、
人権なんてそのための障害あるいは道具以上のものじゃない。
Re: (スコア:0)
> 企業は株主に利益をもたらすためにある
あまり一般的ではない見解をさも当たり前のように語るのは、視野の狭さをわざわざ喧伝しているようで味わい深い。
Re: (スコア:0)
いや、極論としては間違ってないし、そういう見解は時々見る。
ただし、株主に利益をもたらすためとはいえ手段を選ばないのは公共の福祉に反し、
企業の存在意義を危うくするから主たる見解に至らないんじゃなかろうか。
Re: (スコア:0)
反社会的活動を行えば長期的な株主利益を棄損するから、そういう行動を起さないだけ。
Re: (スコア:0)
短期的な利益を求めるか、長期的な利益を求めるかは、個々の株主によって違うんじゃね?
大株主が売り抜けるつもりで短期的な利益を求めることだってあるだろ?
Re: (スコア:0)
そういうお前は最後まで読めww
Re: (スコア:0)
企業は四半期収益を最大化する装置でしかない。
それを法で縛り義務や罰を課して年単位や世紀単位の成功のために最適化するのは国の役割。レイヤーが違う。
たまに立場やスコープで最適な戦略が異なるということを理解できない人がいて、全ての主体の短期目標が同時に一致する
という前提で話を進めないと黙り込んでしまうというのは知っているから、そういう人は可哀想だとは思うけど…
Re: (スコア:0)
ああ、複数のレイヤがあることは理解できても、今の文脈がどのレイヤなのか理解できないタイプの人か。
Re: (スコア:0)
違う。本気で思ってるか、そのように行動してる勢力に対して、どう対抗するのかという話。
人権と平等はすごく尊いので、尊ばない勢力はなんかよく分からないけどいずれ勝手に自滅する、とか夢見てたら滅ぼされる側になりかねない。
Re: (スコア:0)
奴隷制度にも経済合理性があったんだ。
しかも自由平等を建前としたアメリカで、産業革命の結果、南部諸州で奴隷制度の経済合理性があがったりしたんだ。
Re:差別に経済合理性があったらどうするの (スコア:1)
何を持って合理的とするのですか?
それはAIを作った人の設定次第では?
一人以外は全員敗者
それでもあきらめるより熱くなれ
Re: (スコア:0)
学歴フィルターは?
Re: (スコア:0)
差別は合理的じゃないから問題になる.
んなこたない
例えば生理のない人と生理のある人
差は必然的に出ますが
下駄を履かせるのが義務になっているでしょう
合理は声の大きさと権力を元にするという仮定ならそのとおりだが
世論・心象によるんじゃないですかね
絶対値の結果を元にすると不都合が多々でるので合理を元にはせんでしょう
Re: (スコア:0)
不合理だから差別なんだとすれば、合理的なら差別していいのか?
社長に美人秘書を付けると四時間の仕事が二時間で終わるというデータがあったら、ブスを追い出すことに違法性がないなんてことになるか?
Re: (スコア:0)
Re: (スコア:0)
社長の仕事効率を高める要素が美人であることだったら、美人か不美人かで決めるしかないのでは?
(レンタル着物や写真館など)女性の着替え補助などのある仕事は男性お断りですね。こういったものは性差でまず選別されます。
つまりこうなるわけだ (スコア:0)
音声認識エレベーター イレブン!(日本語字幕)
https://www.youtube.com/watch?v=sBNFOMjLlEA [youtube.com]
どこから学習データ持ってきてんだよ (スコア:0)
「ほとんどのプログラマーは白人男性であるため、これらのAIの多くは白人男性の顔や男性の声のデータを使って学習している。」
プログラムのテストじゃなくて学習だよな。
いったい何を学習させてるんだ…?
Re: (スコア:0)
そもそも人種に知能の差がないのなら、たまたまサンプルが白人しかなくても問題ないって話になっちゃうんだけど。
Re: (スコア:0)
ここでいう学習データって、優秀とされる属性のサンプルなんで、優秀でない白人のサンプルも同数与えたら結果は変わると思うんですよね。
# 差別をする人を差別するってパラドックスに、見事AIも組み込まれましたね。
Re: (スコア:0)
>ここでいう学習データって、優秀とされる属性のサンプルなんで、
俺の知らない教師付き学習のことを話している?
一般に、教師付き学習って「あたり・はずれ」を用意するので
「優秀とされる属性のサンプル」「優秀じゃないとされる属性のサンプル」を用意するよ。
「優秀とされる属性のサンプル」だけ用意して学習させたら、学習後は
「なんや、答えは全部『優秀』じゃねーか。じゃあ、『優秀』に〇つけりゃ9割は当たるんだろ」
ってきわめて「例の方法」的(5択だったら二番目を選べ、的な)に最適化学習するので、
学習させるデータのクリーニングは重要よ
差別じゃなくてただのバグだろ (スコア:0)
差別を山車にすれば問答無用で私刑にしようとする風潮は良くないね
なお (スコア:0)
開発をインドに外注したため、インド人が有利になるのであった
Re: (スコア:0)
インド人従業員はインドへのアウトソーシングが完了したらお役御免、という例もあったり。
どのぐらいの未来 (スコア:0)
AIとかの話になったときみんなどのぐらいの未来を想定して話をしてるんだろう?って思うことがよくある。
ニュース記事とかにぶら下がってるコメントだと、もう商業レベルで実用化されてると思い込んでるんだろうなってコメントも多いし
原因が (スコア:0)
白人男性にサンプルが偏ったのが原因だってなら改善も可能だろうが、
本当に偏りなく妥当なデータを学習させた結果、
白人男性の合格率が高かったらどうすりゃいいんだい?
Re: (スコア:0)
白人男性の合格率が高い場合は問題ない。
低い場合「このAIには問題がある」とされ実用化されない。
Re: (スコア:0)
このストーリーで疑われているのはその妥当性そのものだと思うのだが。