パスワードを忘れた? アカウント作成
15393432 story
クラウド

Apple、iCloud メールでは既に児童性的虐待素材をスキャンしている 34

ストーリー by nagazou
実はやってました? 部門より
headless 曰く、

Apple が 9to5Mac の Ben Lovejoy 氏に対し、iCloud メールでは既に児童性的虐待素材 (CSAM) のスキャンを実施していると伝えたそうだ(9to5Mac の記事)。

この話のきっかけとなったのは Epic Games が Apple を訴えている裁判で、提出された証拠の山から The Verge が発見した Appleの Eric Friedman 氏の発言だ。Friedman 氏は機械学習により詐欺や不正からユーザーを守る Fraud Engineering, Algorithms, and Risk (FEAR) の責任者。Friedman 氏は昨年 2 月、Apple がプライバシーを重視するあまり児童ポルノの配布に最も適したプラットフォームになっているなどと Apple 内部の iMessage スレッドで述べている。

そのため、まだ CSAM をスキャンしていないならなぜ断言できるのかと Lovejoy 氏は疑問を呈していた。Lovejoy 氏の調査によると、Apple が先日公開した CSAM スキャンを含む子供を守る取り組みのページとは別に、子供を守る取り組みで児童虐待画像をスキャンすると述べる法的情報ページを最近まで公開(Internet Archive のスナップショット)していたことが判明する。また、昨年 1 月の The Telegraph 記事では、Apple のプライバシー責任者 Jane Horvath 氏 がこのページと同様の説明をしている。

Apple が Lovejoy 氏に伝えたところによれば、iCloud メールで 2019 年から CSAM のスキャンを実施しているが、iCloud 写真ではまだ実施していないという。そのほかのデータについても非常に小規模なスキャンを実施しているとも述べており、具体的なデータの内容には言及しなかったものの、iCloud バックアップは含まれないと明言したそうだ。

Apple による CSAM の通報件数は年に数百件の規模であり、Friedman 氏の発言は具体的な数字を根拠にしたものではなく、iCloud 写真で CSAM が野放しになっている可能性を指摘したものではないかと Lovejoy 氏は考えているようだ。

  • by Anonymous Coward on 2021年08月25日 19時10分 (#4098777)

    だと思ってました

    ここに返信
    • もう何年も前ですが(10年位前?)、Apple Discussions - Japan(現在の Apple サポートコミュニティ)で話題になった事案がありました。

      当時、Apple の提供するメールサービスは送信したメールが相手に届かず、かつ自分の所にも不達通知が届かない事例が多発しておりました。フィードバックが無いので、送信した方は相手にメールが届いていると安心し切っていて、その結果トラブルになったのでした。なのでビジネスには使えないという評価になっていました。

      だんだんとわかってきたのはメールの件名にある特定の語彙が含まれていると、そのメールを送信した時に蒸発するということでした。確かにそれらの単語はよく詐欺に使われる可能性のある単語でしたが(もううろ覚えですが、確か「投資」とか?)、多くの場合には普通のコンテキストで使われているものでしたが、どうやら Apple は非公開で機械的にそれらの語彙のあるメールは問答無用で削除してしまっているようでした。そこでその問題を取り扱う会議室が立ち上がり、どの単語を使うとメールが抹殺されてしまうのかの検証が始まり、数十の語彙に関して、それらの語彙が件名に含まれるメールは機械的に削除されてしまうということが判明しました。それらの語彙が検閲対象であることは会議室の参加者らも自分らで追試験をして確認していました。相当数の語彙が集まった段階で、ある日突然、その会議室自体 Apple Discussions - Japan から消滅してしまいました。メールの件名の検閲語彙が漏洩することを Apple が嫌ったものと思われます。

      なお、現在はそのような乱暴な一方的なメールの検閲削除は行なっていないようです。少なくともユーザーが気付くような形では…。
      • by Anonymous Coward

        そもそも、iMessageもiCloudメールも日本の商習慣的にはビジネスには使わないからなぁ。友達じゃないんだし。
        同様にLINEも個人のやり取り以外じゃ使わないでしょ。LINE WORKSも主な用途は社内止まりだし。

        この系統のツールだとOffice365関連とG Suite関連しか使われてない気がする。

        • by Anonymous Coward

          その2つ、宣伝文句に勝手に消すような事はしないよ!的なのを見たときすげ〜違和感あったけど原因はアップルだったのか?w

      • by Anonymous Coward

        7年ぐらい前、中国に出張に行ったときに一部のメールが届かないことがあった。
        色々と調べてみると、googleの文字列がメールに含まれていると届かないことが分かった。

  • by Anonymous Coward on 2021年08月25日 20時16分 (#4098801)

    #4090575 [srad.jp] さんの懸念だけど、誰かが声を上げる遥か前から監視システム構築は進んでいる、ということかな?このニュースは。

    ここに返信
  • by Anonymous Coward on 2021年08月25日 20時47分 (#4098810)

    案件マダー?

    ここに返信
  • by Anonymous Coward on 2021年08月25日 20時49分 (#4098812)

    iPhoneをiCloud自動連携していて、去年子供が産まれて写真をとりまくっているので。
    当然ですが、中には臍の緒付きの全裸の写真や、オムツ一丁で遊びまくっている写真とかもあります。
    これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?

    # なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。

    ここに返信
    • by Anonymous Coward

      大義を成すためには小さな犠牲はつきものです。

    • by Anonymous Coward

      GANで生成した画像をアップする仕事に戻れ
      今すぐにだ

    • by Anonymous Coward

      ># なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。

      OneDriveは、既に何年も前からOneDrive内の画像などをスキャンしているようですので、そちらはそちらで微妙かもしれません。

      Microsoft、OneDriveに保存されていた児童ポルノ画像を通報、ユーザーが逮捕される | スラド IT [it.srad.jp]

      また、海外では親が子供と一緒にお風呂に入っている写真のようなものがあると性的虐待や児童ポルノとして警察沙汰にな

    • by Anonymous Coward

      画像そのものを見て判断するんじゃなくて、「既存の」ポルノ画像のデータ配列と部分一致するかで判定する、って中の人が言ってたよ
      なので当然我が子の全裸画像は検閲スルーってわけ、で少なくともAppleに関しては上記の仕組みから人力ではない

      Winnyで開発続けてたら流出対策できたのにな…ってのに通じる話でもあるな

      • by Anonymous Coward on 2021年08月26日 7時06分 (#4098993)

        いつiCloud上の画像が既存入りするか分からんのが怖いよね。
        APPLEはそういうのオープンにはしないだろうし。

        • by Anonymous Coward

          人力で確認されるには複数該当した場合ってことなんで確率としては低い
          ほんとの児童ポルノ置いてるならすでに単純所持は違法だからとっとと捨てろよ

        • by Anonymous Coward

          例のDBに加えるのはAppleじゃなくNCMECって団体なんで、
          Appleは実際どんな画像かも知らないのでは。

          児童ポルノ以外の政治的な画像のハッシュを加えられたら検閲になって大変なことに〜
          ってのが問題視してる人たち。
          でも管理してるのはNCMECってアメリカの団体だから、
          中国政府が監視したい画像ハッシュをAppleに渡しても無駄か。(Appleは対応しちゃうのかな?)

    • by Anonymous Coward

      > これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?

      人間ではなく計算機による画像認識で判断してアカウントBANされるリスクが存在するので、
      アカウントが残っているうちにそういう写真はクラウドから消し、全部ローカル保存に移行することをお勧めします。
      AppleだけじゃなくてGoogleその他、海外サービスは全部そういうリスクがあるし、
      児童ポルノ扱いの場合だと永久BANで、新規アカウント作成もできないなんて可能性もあるかも...

      2013年には既に写真が原因と思われるGoogleアカウントBANがニュースになっていました:
      https://nlab.itmedia.co.jp/nl/articles/1306/25/news042.html [itmedia.co.jp]

  • by Anonymous Coward on 2021年08月25日 20時53分 (#4098815)

    法律や顧客、倫理より理念が上回る、ある意味で非常にリベラルな企業。

    ここに返信
    • by Anonymous Coward

      G「全くけしからん企業だ

  • by Anonymous Coward on 2021年08月25日 20時56分 (#4098819)

    殺人
    児童ポルノ
    麻薬所持
    贈収賄
    脱税
    姦通
    内乱罪
    不敬罪
    脅迫
    侮辱

    その線引きは何?

    ここに返信
    • by Anonymous Coward

      殺人
      児童ポルノ
      麻薬所持
      贈収賄
      脱税
      姦通
      内乱罪
      不敬罪
      脅迫
      侮辱

      その線引きは何?

      いずれも白人の十字教徒が非十字教徒へ行っている場合は無罪じゃないすかねぇ

    • by Anonymous Coward

      これが本格稼働していたら旭川女子中学生いじめ凍死事件は防止出来たのだろうか

      いっそ世界中の監視カメラの内容をリアルタイムでappleのサーバーにアップロードし続ければ
      あらゆる犯罪をappleが発見してくれるかもしれない。

    • by Anonymous Coward

      すべてNG
      スキャンしていいものはない
      どうしてもスキャンじゃないと抑止できないならともかく、他の方法でやってくれ
      仮に犯罪抑止でも個人のデータを見ることは許されない

  • by Anonymous Coward on 2021年08月25日 22時04分 (#4098861)

    Appleのサービスを日本で提供するのはまずいのでは?

    ここに返信
    • by Anonymous Coward

      Appleのサービスを日本で提供するのはまずいのでは?

      信教の自由によりApple教の布教はほごされます

      • by Anonymous Coward

        反故されるのか。
        我が国もちゃんとやってるんだな。

  • by Anonymous Coward on 2021年08月26日 1時06分 (#4098936)

    Boxcryptor
    Cryptomator
    VeraCrypt

    どれがいい?

    ここに返信
  • by Anonymous Coward on 2021年08月26日 11時00分 (#4099113)

    Appleの検閲は良い検閲!文句を言うのはApple教団の敵!

    ここに返信
    • by Anonymous Coward

      GoogleもMicrosoftも似たようなことやってるから
      メジャーなクラウドストレージに逃げ場はないですよ。

typodupeerror

ナニゲにアレゲなのは、ナニゲなアレゲ -- アレゲ研究家

読み込み中...