Apple、iCloud メールでは既に児童性的虐待素材をスキャンしている 34
実はやってました? 部門より
Apple が 9to5Mac の Ben Lovejoy 氏に対し、iCloud メールでは既に児童性的虐待素材 (CSAM) のスキャンを実施していると伝えたそうだ(9to5Mac の記事)。
この話のきっかけとなったのは Epic Games が Apple を訴えている裁判で、提出された証拠の山から The Verge が発見した Appleの Eric Friedman 氏の発言だ。Friedman 氏は機械学習により詐欺や不正からユーザーを守る Fraud Engineering, Algorithms, and Risk (FEAR) の責任者。Friedman 氏は昨年 2 月、Apple がプライバシーを重視するあまり児童ポルノの配布に最も適したプラットフォームになっているなどと Apple 内部の iMessage スレッドで述べている。
そのため、まだ CSAM をスキャンしていないならなぜ断言できるのかと Lovejoy 氏は疑問を呈していた。Lovejoy 氏の調査によると、Apple が先日公開した CSAM スキャンを含む子供を守る取り組みのページとは別に、子供を守る取り組みで児童虐待画像をスキャンすると述べる法的情報ページを最近まで公開(Internet Archive のスナップショット)していたことが判明する。また、昨年 1 月の The Telegraph 記事では、Apple のプライバシー責任者 Jane Horvath 氏 がこのページと同様の説明をしている。
Apple が Lovejoy 氏に伝えたところによれば、iCloud メールで 2019 年から CSAM のスキャンを実施しているが、iCloud 写真ではまだ実施していないという。そのほかのデータについても非常に小規模なスキャンを実施しているとも述べており、具体的なデータの内容には言及しなかったものの、iCloud バックアップは含まれないと明言したそうだ。
Apple による CSAM の通報件数は年に数百件の規模であり、Friedman 氏の発言は具体的な数字を根拠にしたものではなく、iCloud 写真で CSAM が野放しになっている可能性を指摘したものではないかと Lovejoy 氏は考えているようだ。
メールが監視されているのは皆知ってること (スコア:0)
だと思ってました
Re:メールが監視されているのは皆知ってること (スコア:5, 興味深い)
当時、Apple の提供するメールサービスは送信したメールが相手に届かず、かつ自分の所にも不達通知が届かない事例が多発しておりました。フィードバックが無いので、送信した方は相手にメールが届いていると安心し切っていて、その結果トラブルになったのでした。なのでビジネスには使えないという評価になっていました。
だんだんとわかってきたのはメールの件名にある特定の語彙が含まれていると、そのメールを送信した時に蒸発するということでした。確かにそれらの単語はよく詐欺に使われる可能性のある単語でしたが(もううろ覚えですが、確か「投資」とか?)、多くの場合には普通のコンテキストで使われているものでしたが、どうやら Apple は非公開で機械的にそれらの語彙のあるメールは問答無用で削除してしまっているようでした。そこでその問題を取り扱う会議室が立ち上がり、どの単語を使うとメールが抹殺されてしまうのかの検証が始まり、数十の語彙に関して、それらの語彙が件名に含まれるメールは機械的に削除されてしまうということが判明しました。それらの語彙が検閲対象であることは会議室の参加者らも自分らで追試験をして確認していました。相当数の語彙が集まった段階で、ある日突然、その会議室自体 Apple Discussions - Japan から消滅してしまいました。メールの件名の検閲語彙が漏洩することを Apple が嫌ったものと思われます。
なお、現在はそのような乱暴な一方的なメールの検閲削除は行なっていないようです。少なくともユーザーが気付くような形では…。
Re: (スコア:0)
そもそも、iMessageもiCloudメールも日本の商習慣的にはビジネスには使わないからなぁ。友達じゃないんだし。
同様にLINEも個人のやり取り以外じゃ使わないでしょ。LINE WORKSも主な用途は社内止まりだし。
この系統のツールだとOffice365関連とG Suite関連しか使われてない気がする。
Re: (スコア:0)
その2つ、宣伝文句に勝手に消すような事はしないよ!的なのを見たときすげ〜違和感あったけど原因はアップルだったのか?w
Re: (スコア:0)
7年ぐらい前、中国に出張に行ったときに一部のメールが届かないことがあった。
色々と調べてみると、googleの文字列がメールに含まれていると届かないことが分かった。
ニーメラー定期 (スコア:0)
#4090575 [srad.jp] さんの懸念だけど、誰かが声を上げる遥か前から監視システム構築は進んでいる、ということかな?このニュースは。
作家と編集との打ち合わせメールが通報される (スコア:0)
案件マダー?
iColud裸の児童の写真をたくさんUPしてます (スコア:0)
iPhoneをiCloud自動連携していて、去年子供が産まれて写真をとりまくっているので。
当然ですが、中には臍の緒付きの全裸の写真や、オムツ一丁で遊びまくっている写真とかもあります。
これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?
# なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。
Re: (スコア:0)
大義を成すためには小さな犠牲はつきものです。
Re: (スコア:0)
GANで生成した画像をアップする仕事に戻れ
今すぐにだ
Re: (スコア:0)
># なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。
OneDriveは、既に何年も前からOneDrive内の画像などをスキャンしているようですので、そちらはそちらで微妙かもしれません。
Microsoft、OneDriveに保存されていた児童ポルノ画像を通報、ユーザーが逮捕される | スラド IT [it.srad.jp]
また、海外では親が子供と一緒にお風呂に入っている写真のようなものがあると性的虐待や児童ポルノとして警察沙汰にな
Re: (スコア:0)
画像そのものを見て判断するんじゃなくて、「既存の」ポルノ画像のデータ配列と部分一致するかで判定する、って中の人が言ってたよ
なので当然我が子の全裸画像は検閲スルーってわけ、で少なくともAppleに関しては上記の仕組みから人力ではない
Winnyで開発続けてたら流出対策できたのにな…ってのに通じる話でもあるな
Re:iColud裸の児童の写真をたくさんUPしてます (スコア:1)
いつiCloud上の画像が既存入りするか分からんのが怖いよね。
APPLEはそういうのオープンにはしないだろうし。
Re: (スコア:0)
人力で確認されるには複数該当した場合ってことなんで確率としては低い
ほんとの児童ポルノ置いてるならすでに単純所持は違法だからとっとと捨てろよ
Re: (スコア:0)
例のDBに加えるのはAppleじゃなくNCMECって団体なんで、
Appleは実際どんな画像かも知らないのでは。
児童ポルノ以外の政治的な画像のハッシュを加えられたら検閲になって大変なことに〜
ってのが問題視してる人たち。
でも管理してるのはNCMECってアメリカの団体だから、
中国政府が監視したい画像ハッシュをAppleに渡しても無駄か。(Appleは対応しちゃうのかな?)
Re: (スコア:0)
> これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?
人間ではなく計算機による画像認識で判断してアカウントBANされるリスクが存在するので、
アカウントが残っているうちにそういう写真はクラウドから消し、全部ローカル保存に移行することをお勧めします。
AppleだけじゃなくてGoogleその他、海外サービスは全部そういうリスクがあるし、
児童ポルノ扱いの場合だと永久BANで、新規アカウント作成もできないなんて可能性もあるかも...
2013年には既に写真が原因と思われるGoogleアカウントBANがニュースになっていました:
https://nlab.itmedia.co.jp/nl/articles/1306/25/news042.html [itmedia.co.jp]
Appleという企業は、こういうことを平気でする (スコア:0)
法律や顧客、倫理より理念が上回る、ある意味で非常にリベラルな企業。
Re: (スコア:0)
G「全くけしからん企業だ
どんな犯罪ならスキャンしてもいい? (スコア:0)
殺人
児童ポルノ
麻薬所持
贈収賄
脱税
姦通
内乱罪
不敬罪
脅迫
侮辱
その線引きは何?
Re: (スコア:0)
殺人
児童ポルノ
麻薬所持
贈収賄
脱税
姦通
内乱罪
不敬罪
脅迫
侮辱
その線引きは何?
いずれも白人の十字教徒が非十字教徒へ行っている場合は無罪じゃないすかねぇ
Re: (スコア:0)
これが本格稼働していたら旭川女子中学生いじめ凍死事件は防止出来たのだろうか
いっそ世界中の監視カメラの内容をリアルタイムでappleのサーバーにアップロードし続ければ
あらゆる犯罪をappleが発見してくれるかもしれない。
Re: (スコア:0)
すべてNG
スキャンしていいものはない
どうしてもスキャンじゃないと抑止できないならともかく、他の方法でやってくれ
仮に犯罪抑止でも個人のデータを見ることは許されない
日本国憲法に反しているわけで (スコア:0)
Appleのサービスを日本で提供するのはまずいのでは?
Re: (スコア:0)
Appleのサービスを日本で提供するのはまずいのでは?
信教の自由によりApple教の布教はほごされます
Re: (スコア:0)
反故されるのか。
我が国もちゃんとやってるんだな。
やっぱ暗号化だな (スコア:0)
Boxcryptor
Cryptomator
VeraCrypt
どれがいい?
Re: (スコア:0)
????「暗号化されてることが判明したファイルは問答無用で消去しましょう。」
Re:やっぱ暗号化だな (スコア:1)
Re: (スコア:0)
令和になってもBlack Albumやげろしゃぶなどを使わなきゃいけないとは…
どうせ信者しか使わないんだからいいんじゃね? (スコア:0)
Appleの検閲は良い検閲!文句を言うのはApple教団の敵!
Re: (スコア:0)
GoogleもMicrosoftも似たようなことやってるから
メジャーなクラウドストレージに逃げ場はないですよ。