パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開」記事へのコメント

  • 背景 (スコア:5, 参考になる)

    他のサービスは既にCSAMをサーバー側でスキャンしている
    2020年NCMECへの通報件数 [missingkids.org]:

    Facebook 20,307,216
    Google 546,704
    Microsoft 96,776
    Twitter 65,062
    Imgur 31,571
    Dropbox 20,928
    Apple 265

    アップルはサーバー側でデータをスキャンする事を拒否(というより出来ないようにデザインされている)しているので他と比べて圧倒的に少ない数字になる。アップルがユーザーのプライバシーを尊重してるからなのだが、NCMEC等からはCSAMの温床になりかねないと批判されてきた。そこでアップルが出してきた案がサーバーにアップロードする時にク

    --
    しきい値 1: ふつう匿名は読まない
    匿名補正 -1
    • by Anonymous Coward on 2021年08月12日 14時20分 (#4089525)

      オンラインにアップロードしているものと、個人のローカルストレージを一緒にするな。

      親コメント
      • by Anonymous Coward

        読めよ

        Does this mean Apple is going to scan all the photos stored on my iPhone?
        No. By design, this feature only applies to photos that the user chooses to upload to iCloud Photos

日本発のオープンソースソフトウェアは42件 -- ある官僚

処理中...