パスワードを忘れた? アカウント作成
15375204 story
OS

Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開 34

ストーリー by nagazou
ブラックボックスな部分が多い 部門より
Appleが8月5日に発表した児童性的虐待コンテンツ(CSAM)機能は、各所からプライバシーの扱いにおいて議論を呼んでいる。具体的にはAppleや政府などの機関がこの機能を使用してユーザーのデータにアクセスするのではないかとする懸念だ。このためAppleは8日、この機能に関するFAQを公開した(FAQページ[PDF]MIT Tech ReviewITmediaCNET)。

曰くこのCSAM対策機能は、データベースに登録されている既知のCSAM画像と完全一致した場合のみ検出する仕組みであり、政府からの拡張要求には応じないとしている。CSAM画像検出以外の目的でシステムが使用されるのを防ぐための仕組みとして、画像リストは全米行方不明・搾取児童センター(NCMEC)やその他の児童安全組織によって提供されているものだけを使用すると主張する。

しかし、TheVergeの記事によれば、Appleは過去に各国の政府に譲歩してきた経緯がある。暗号化された電話を許可していないサウジアラビア、パキスタンなどの国ではFaceTimeのないiPhoneを販売しており、中国では政府からの要求でApp Storeから何千ものアプリを削除し、ユーザーデータを該当国内に移動する要求に関しても応えてきたと指摘している(TheVerge)。

この記事では、今回公開されたFAQでは、メッセージをスキャンしてCSAMを探す機能では、法執行機関と情報を共有しないとしているが、このツールの焦点が性的に露骨な画像のみであることをどうやって保証しているのかについては言及されておらず、ユーザー側の懸念にも回答し切れていないとしている。
  • 背景 (スコア:5, 参考になる)

    by crass (35930) on 2021年08月12日 12時39分 (#4089446) 日記

    他のサービスは既にCSAMをサーバー側でスキャンしている
    2020年NCMECへの通報件数 [missingkids.org]:

    Facebook 20,307,216
    Google 546,704
    Microsoft 96,776
    Twitter 65,062
    Imgur 31,571
    Dropbox 20,928
    Apple 265

    アップルはサーバー側でデータをスキャンする事を拒否(というより出来ないようにデザインされている)しているので他と比べて圧倒的に少ない数字になる。アップルがユーザーのプライバシーを尊重してるからなのだが、NCMEC等からはCSAMの温床になりかねないと批判されてきた。そこでアップルが出してきた案がサーバーにアップロードする時にクライエント側でスキャンして、ある一定の閾値を超えた時にだけサーバー側で復号できるという今回の物。

    アップルがサーバー側でデータをスキャンするという簡単な方法を取らずにユーザーのプライバシーを最大限保護しつつ、自サーバーにCSAMがアップロードされる事を回避するという同時に行う事が難しい事を非常に複雑な方法で解決案を提示したら何故か壮絶に叩かれたというのが今回の顛末。

    --
    しきい値 1: ふつう匿名は読まない
    匿名補正 -1
    ここに返信
    • by Anonymous Coward

      オンラインにアップロードしているものと、個人のローカルストレージを一緒にするな。

      • by Anonymous Coward

        読めよ

        Does this mean Apple is going to scan all the photos stored on my iPhone?
        No. By design, this feature only applies to photos that the user chooses to upload to iCloud Photos

  • by Anonymous Coward on 2021年08月12日 9時36分 (#4089328)

    CSAM Detection Technical Summary (August 2021)
    https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf [apple.com]

    前回のストーリーで『「ハッシュとの照合」の「ハッシュ」は「message digest」ではないので注意 [srad.jp]』と騒いでる人がいたけど、その根拠が上記のテクニカルペーパー。NeuralHash(ニューラルハッシュ)という技術を用いているので、リサイズや変換を行っても同じNeuralHash値が導出される。

    じゃあ偽陽性の誤検出もあるんじゃないかと懸念されてた [9to5mac.com]けど、複数の画像の一致があった場合にのみ通報フラグが立つことなどがAppleの発表で分かってトーンダウン [9to5mac.com]した。

    Appleの公式発表前にリーク情報が出回ったせいで憶測で叩かれているのはもにょるね。

    ここに返信
    • Re:完全一致ではない (スコア:2, すばらしい洞察)

      by Anonymous Coward on 2021年08月12日 11時10分 (#4089383)

      別に誤検出があるから問題ってわけじゃないし、あんまりトーンダウンしてるように感じないけどなぁ
      アップル担当者が直接画像を見ないとしてもバックドアが設けられること自体が問題で燃えてるわけで

    • by Anonymous Coward

      ユーザーから端末使用時の同意を取る際に、上のコメントのようにその手段や範囲まで明記するわけじゃないからね。
      現時点では上のコメントのような実装でも、一旦同意した後に手段や範囲を変えるのはこれまでもよくあること。

      懸念を示す人の多くは、この仕組みが後日適応範囲を拡大されることや、仕組みが適切に運用されているかユーザ側から確認できないことを心配している。

    • by Anonymous Coward

      NeuralHashなるものについて、
      その効率的な算出方法を実現するとこは、腕っこきの研究者や技術者の腕の見せ所だと思うけど、
      データを畳み込みニューラルネットワークに放り込んで得られたデータのほうに番号を振るって、概念的なとこは、分野によるが大学の教科書に書いてあるフツーのことの気がする。

      実用上の実装を作って、その技術に付けた名前がNeuralHashというなら得心が行く。

  • これで合法的に裏口を設けて、ユーザーの所有するデータを勝手にスキャンしていく手はずが整ったわけだ。
    本来、道具屋は道具屋に徹してほしい。

    ここに返信
    • >本来、道具屋は道具屋に徹してほしい。

      それは、犯罪被害が増大する、犯罪被害を受忍するってことですよ。
      一般人としては、プライバシー的に不愉快だけど、犯罪の撲滅のためには、譲歩するしかないんですよ。(自転車の防犯登録みたいに)

      社会は、道具屋に対して、犯罪に使用されない様にすることを要請しますし、IT機器はバールのようなものと違って、多少はできるわけでして。
      道具屋も自分が作った道具が、犯罪に使用されているとしたら、社会的評価が失墜するでしょ。
      よりよい社会、安全安心な社会を目指そうとすれば、プライバシーはある程度譲歩するしかないよ。(前提として、政府や当局への信頼(民主主義の安定性)が高くないと、独裁政治への道となる。独裁政治でも治安は良くなるにはなるだろう、政治腐敗と不信もひどくなるが。)

      • by Anonymous Coward

        ごく少数の子供の人権問題に過ぎない児童ポルノ程度、大多数の市民のかけがえのない神聖な自由とプライバシーに比べればどうでもいいでしょう。

    • by Anonymous Coward

      道具屋じゃなくて情報屋になったってことでは

  • とらすとみー

    ここに返信
  • by Anonymous Coward on 2021年08月12日 10時11分 (#4089351)

    それが一番効果的な抗議だろうに

    ここに返信
    • by Anonymous Coward

      「いいだけ」って、ゼロイチでしか考えられないの?
      日本に文句があるなら海外移住しろみたいなことと似てる。
      好きなところは好き、嫌いなところは嫌い。
      いいところは伸ばして、良くないところは直したほうがベター。

      • by Anonymous Coward

        いつの間にか通報されて警察や刑務所のお世話になるかはゼロイチしかないんですけど、区別できてます?

        • by Anonymous Coward

          こいつもゼロイチで考えてるっぽいな
          通報されるから有罪になるかも含めてその後の人生まであらゆるグラデーションがあるだろ
          そもそも上のコメントは事象の発生ではなく抗議の形について言ってる

      • by Anonymous Coward

        同じことをネトウヨにも言ってやれ

        • by Anonymous Coward

          ネトウヨはパヨクの指摘も取り入れるが、パヨクはネトウヨの指摘にダンマリなんですが

          • by Anonymous Coward

            それどう言う冗談?
            面白いの?

    • by Anonymous Coward

      Googleはとっくの昔からGoogle Driveの画像を検閲してるけどな。
      しかも既知のCSAM画像と一致するかどうかに関係なく、機械的にエロ画像と判断されたら誤検出だろうと勝手に削除される。
      非公開でもマンガ・イラストでもエロなら削除対象で法的機関への通報もある。

      • by Anonymous Coward

        今でもたくさんの違法アップロード屋がGoogle Driveでファイルを配布してるのに通報厨が報告するまで全く削除されてませんが

        • by Anonymous Coward

          GoogleDriveでWindows 11の流出ISOが配布されてるいうネタは見たけど、CSAMが配布されているというのは聞いたことないなぁ
          非エロなら著作権侵害の問題で親告罪だから通報厨が報告するまで削除されないのはそりゃそうだとしか思わないけど

    • Re: (スコア:0, すばらしい洞察)

      by Anonymous Coward

      クラウドの検閲はAppleだけの問題じゃないしね。今は6TBのHDDも1万程度で買えるし、QNAP辺りのNASでミラーリングするのが一番無難だと思う。

      • インターネット側から常にアクセスできることに不安を感じる
        有名なメーカーなら脆弱性修正なんかはまず大丈夫なんだろうけど

        #そんな私はローカルでHDDを3台手動同期

        • by Anonymous Coward

          >インターネット側から常にアクセスできることに不安を感じる

          普通にインターネットからアクセスする機能を無効にしてくれ。
          というかわざわざ有効に設定しない限りインターネット側からのアクセスはできないと思うが。

          • by Anonymous Coward

            その辺は抜かりなしか
            複数台端末を持ってて、それぞれ同期したり中身にアクセスするならNASもアリだなあ

  • by Anonymous Coward on 2021年08月12日 11時44分 (#4089407)

    「ほんの少しだけ検閲する」というのは「ほんの少しだけ妊娠している」というようなものだ。検閲はするかしないかのどちらかしかない。

    ここに返信
    • by Anonymous Coward on 2021年08月12日 11時49分 (#4089408)

      先っぽだけだから!

    • by Anonymous Coward

      何か映画か海外TVドラマかで聞いたセリフだが、何だったかはわすれてしまった。

      僕だとネタ元は漫画版餓狼伝になるから
      「少しだけ検閲できるということー。それは永遠に検閲できるということ」だな

    • by Anonymous Coward

      ハインラインですね。

  • by Anonymous Coward on 2021年08月12日 13時28分 (#4089495)

    初めて聞いた

    ここに返信
typodupeerror

アレゲは一日にしてならず -- アレゲ研究家

読み込み中...