パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開」記事へのコメント

  • 背景 (スコア:5, 参考になる)

    by crass (35930) on 2021年08月12日 12時39分 (#4089446) 日記

    他のサービスは既にCSAMをサーバー側でスキャンしている
    2020年NCMECへの通報件数 [missingkids.org]:

    Facebook 20,307,216
    Google 546,704
    Microsoft 96,776
    Twitter 65,062
    Imgur 31,571
    Dropbox 20,928
    Apple 265

    アップルはサーバー側でデータをスキャンする事を拒否(というより出来ないようにデザインされている)しているので他と比べて圧倒的に少ない数字になる。アップルがユーザーのプライバシーを尊重してるからなのだが、NCMEC等からはCSAMの温床になりかねないと批判されてきた。そこでアップルが出してきた案がサーバーにアップロードする時にクライエント側でスキャンして、ある一定の閾値を超えた時にだけサーバー側で復号できるという今回の物。

    アップルがサーバー側でデータをスキャンするという簡単な方法を取らずにユーザーのプライバシーを最大限保護しつつ、自サーバーにCSAMがアップロードされる事を回避するという同時に行う事が難しい事を非常に複雑な方法で解決案を提示したら何故か壮絶に叩かれたというのが今回の顛末。

    --
    しきい値 1: ふつう匿名は読まない
    匿名補正 -1
    • by Anonymous Coward

      オンラインにアップロードしているものと、個人のローカルストレージを一緒にするな。

      • by Anonymous Coward

        読めよ

        Does this mean Apple is going to scan all the photos stored on my iPhone?
        No. By design, this feature only applies to photos that the user chooses to upload to iCloud Photos

ハッカーとクラッカーの違い。大してないと思います -- あるアレゲ

処理中...