アカウント名:
パスワード:
・患者の将来的な重病化・合併症リスクを数値化することで、医療費を適切に配分することが目的。・人種データは入力されていない。・しかし、算出されたスコアを見ると、同じスコアでも白人より黒人の方が慢性疾患が多い。>ただ人種が違うだけで、同じ疾患の人でリスクスコアが違うのはおかしい。なぜこうなる?
・AIには「より医療費がかかった実績」=「医療費がかかりやすい人」=「リスクスコアが高くなる」というアルゴリズムが含まれている・昔のデータを参照すると、平均的には白人の方が医療費をたくさん使っている>このデータを読み取ると、同じ病気でも白人の方が医療費がかかる=リスクが高い=リスクスコアも高くなるということになってしまう
しかし、そもそも白人の医療費が高いのは、黒人の方が貧困率が高いからです。医療機関側の差別が医療不信を呼び、結果的に受診数が減るという現実も指摘されています。
純粋なリスクスコアだけを算出してほしいのに、差別が原因で歪んだデータを取り込むことで、AIも差別的な判定を始めてしまう。こういった事例はこの件に関わらず、再犯予測プログラムなどでも同様の問題が指摘されています。
そもそも「重篤な」という判断をさせるスコアの計算に医療費を使うのがおかしいだけでは。関係ないでしょ、医療費。風邪に1億ドル使った大金持ちがいたとして、重篤ってことにはならんし。
個別で見ればそういう外れ値もあるけど、全体としては支払い費用と重篤度は比例関係にあるでしょ。これがビッグデータの怖いところで。
医療費が関係ないことはない。1億ドル払ってる人、1ドル払ってる人が同じ症状なら、1億ドル払ってる人の方がスコア高くなってもおかしくないと思う。軽い症状なのに大金をつかったのか、大金をつかったから軽い症状なのかは、わからないよ
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
海軍に入るくらいなら海賊になった方がいい -- Steven Paul Jobs
データに残る差別の爪痕 (スコア:2)
・患者の将来的な重病化・合併症リスクを数値化することで、医療費を適切に配分することが目的。
・人種データは入力されていない。
・しかし、算出されたスコアを見ると、同じスコアでも白人より黒人の方が慢性疾患が多い。
>ただ人種が違うだけで、同じ疾患の人でリスクスコアが違うのはおかしい。なぜこうなる?
・AIには「より医療費がかかった実績」=「医療費がかかりやすい人」=「リスクスコアが高くなる」というアルゴリズムが含まれている
・昔のデータを参照すると、平均的には白人の方が医療費をたくさん使っている
>このデータを読み取ると、同じ病気でも白人の方が医療費がかかる=リスクが高い=リスクスコアも高くなるということになってしまう
しかし、そもそも白人の医療費が高いのは、黒人の方が貧困率が高いからです。医療機関側の差別が医療不信を呼び、結果的に受診数が減るという現実も指摘されています。
純粋なリスクスコアだけを算出してほしいのに、差別が原因で歪んだデータを取り込むことで、AIも差別的な判定を始めてしまう。こういった事例はこの件に関わらず、再犯予測プログラムなどでも同様の問題が指摘されています。
Re: (スコア:0)
そもそも「重篤な」という判断をさせるスコアの計算に医療費を使うのがおかしいだけでは。
関係ないでしょ、医療費。
風邪に1億ドル使った大金持ちがいたとして、重篤ってことにはならんし。
Re: (スコア:0)
個別で見ればそういう外れ値もあるけど、全体としては支払い費用と重篤度は比例関係にあるでしょ。これがビッグデータの怖いところで。
Re: (スコア:0)
医療費が関係ないことはない。
1億ドル払ってる人、1ドル払ってる人が同じ症状なら、1億ドル払ってる人の方がスコア高くなってもおかしくないと思う。
軽い症状なのに大金をつかったのか、大金をつかったから軽い症状なのかは、わからないよ