AIあるいはアルゴリズムが差別や格差を固定化、拡大する
タレコミ by Anonymous Coward
あるAnonymous Coward 曰く、
情報元へのリンク
Apple Cardに付与される利用限度額が、女性は男性より少なく設定されてしまう問題にApple社は「利用するアルゴリズムはそもそも性別データは入力されていない」と説明した。一見公平に見えるが、「性別を分析対象としないアルゴリズムであっても、性別と相関するデータを取り込んで利用する限り、女性に対するバイアスが生じてしまう可能性がある。このような「代理変数」がさまざまなアルゴリズムで望ましくないバイアスを引き起こすケースがあることは、多くの研究で証明されている」そうだ。
また、東京大学大学院情報学環情報経済AIソリューション寄付講座の特定短時間勤務有期雇用教職員である大澤昇平氏は、「産業スパイ、中国共産党のスパイである可能性が高い」というフィルタにより「中国人を雇用しない、面接すらしない」という結果を導き出せる事を示した。
http://www.iii.u-tokyo.ac.jp/news/2019112411004
安易なアルゴリズムや目標の設定が容易に差別や格差の固定、拡大に結びつく事が示された。
まあ目標設定が「短期の勝利=真珠湾」「目前の議席=」などの結果を見れば…勝利はしているし
アルゴリズムが!AIが導き出した正解!などの扱い、今後どうなるどうするか諸氏はどう思いますか?
情報元へのリンク
AIあるいはアルゴリズムが差別や格差を固定化、拡大する More ログイン