Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化 91
ストーリー by headless
強化 部門より
強化 部門より
Apple が米国内の Apple デバイスを対象として、子供を性的虐待から守る取り組みの強化を発表した(Apple - Child Safety、 9to5Mac の記事、 Mac Rumors の記事、 The Verge の記事)。
取り組みの中心となるのは児童性的虐待素材 (CSAM) の拡散防止だ。まず、「メッセージ」アプリでは子供が性的に露骨な写真を送受信しようとすると警告して保護者にも通知し、受信した写真にはぼかしがかけられる。性的に露骨な写真はデバイス上の機械学習によって検出され、Apple に写真が送信されることはない。
また、iOS /iPadOS デバイスで写真を iCloud 写真へ保存する際には、全米失踪・被搾取児童センター (NCMEC) などが提供する既知の CSAM 画像のハッシュとの照合をデバイス上で実行する。照合結果は暗号化されたセーフティーバウチャーに格納されて写真とともに iCloud 写真へ保存される。Apple は iCloud 写真に保存された CSAM コンテンツが閾値を超えた場合にのみセーフティーバウチャーへのアクセスが可能となり、確認の上でアカウントの無効化や NCMEC への通報などを行うとのこと。
最後はオンラインでの危険を避けるための Siri と検索による 児童と保護者へのリソース提供だ。Siri と検索はユーザーが CSAM 関連の検索を実行しようとしたときの介入も行う。これらの機能は iOS 15 / iPadOS 15 / watchOS 8 / macOS Montereyで利用可能になる。米国以外での提供に関しては国や地域ごとに決定するとのこと。
しかし、善意の計画であっても悪用される可能性があるため、EFF やエドワード・スノーデン氏、WhatsApp 責任者のウィル・キャスカート氏、ジョンズ・ホプキンズ大学で教鞭をとる暗号専門家のマシュー・グリーン氏などをはじめとして、さまざまな懸念が示されている。主な懸念点としては誤検知やハッシュのコリジョンによる攻撃、独裁政権による悪用、テキストへの対象拡大といったものが挙げられる。
取り組みの中心となるのは児童性的虐待素材 (CSAM) の拡散防止だ。まず、「メッセージ」アプリでは子供が性的に露骨な写真を送受信しようとすると警告して保護者にも通知し、受信した写真にはぼかしがかけられる。性的に露骨な写真はデバイス上の機械学習によって検出され、Apple に写真が送信されることはない。
また、iOS /iPadOS デバイスで写真を iCloud 写真へ保存する際には、全米失踪・被搾取児童センター (NCMEC) などが提供する既知の CSAM 画像のハッシュとの照合をデバイス上で実行する。照合結果は暗号化されたセーフティーバウチャーに格納されて写真とともに iCloud 写真へ保存される。Apple は iCloud 写真に保存された CSAM コンテンツが閾値を超えた場合にのみセーフティーバウチャーへのアクセスが可能となり、確認の上でアカウントの無効化や NCMEC への通報などを行うとのこと。
最後はオンラインでの危険を避けるための Siri と検索による 児童と保護者へのリソース提供だ。Siri と検索はユーザーが CSAM 関連の検索を実行しようとしたときの介入も行う。これらの機能は iOS 15 / iPadOS 15 / watchOS 8 / macOS Montereyで利用可能になる。米国以外での提供に関しては国や地域ごとに決定するとのこと。
しかし、善意の計画であっても悪用される可能性があるため、EFF やエドワード・スノーデン氏、WhatsApp 責任者のウィル・キャスカート氏、ジョンズ・ホプキンズ大学で教鞭をとる暗号専門家のマシュー・グリーン氏などをはじめとして、さまざまな懸念が示されている。主な懸念点としては誤検知やハッシュのコリジョンによる攻撃、独裁政権による悪用、テキストへの対象拡大といったものが挙げられる。
でぃーぷにゅーらるねっとわーく! (スコア:4, 興味深い)
プールで遊ぶ孫の画像
と
ロリポルノ
の区別をつけれるようになったのか!?
Re: (スコア:0)
見る側の気持ち次第だものなあ
昔のドリフとか裸の子役が走り回るのをギャグとしてやってたなあ。
Re: (スコア:0)
その場面が含まれるドリフの動画を違法アップロードしてるやつは児童ポルノ流通で潰せるってことだよなこれ
いいこと聞いたわ
Re: (スコア:0)
違法アップロードの意味わかってる?
Re: (スコア:0)
違法アップロードと児童ポルノの量刑とを勘案して、
後者の方が重いと判断したんではないでしょうか。
社会的には後者の方が追求が厳しそうではある。
あと、一発で刑事案件になるのかな。
「ハッシュとの照合」の「ハッシュ」は「message digest」ではないので注意 (スコア:2, 参考になる)
「ウェブサイト」を「ホームページ」と呼ぶと怒る技術者の中にも「message digest」を「ハッシュ値」と平気で言っている人が非常に多かった印象なので、
「ハッシュとの照合」と言うと「いわゆるファイルの SHA-256 ハッシュとかの値」と照合していると勘違いする人が出てきそうですが、そうではありません。
これは、画像の一部だけを書き換えるなどしてファイルの message digest が違っても、児童ポルノだと検出できる方式で、
照合しているのは画像の特徴を抽出したデータで完全一致ではなくても検出されます。
誤検出の可能性は非常に低いとされてますが0ではありません(所謂ハッシュの衝突がどうのという話ではなく、それよりは遥かに高い確率ですしその確率が正しいと検証することも困難です)。
Re:「ハッシュとの照合」の「ハッシュ」は「message digest」ではないので注意 (スコア:4, 興味深い)
「ハッシュ値」とは「ハッシュ関数(任意のデータから別のデータを得る関数)で生成した値」なので、message digestもそのうちの1つで間違ってはいないですよ。
ただ、このハッシュ関数はファイルデータそのものに対して適用するのではないというだけです。
よく言われるのが、「児童ポルノを見つけるってことは、そのサービスの提供元は児童ポルノ画像を大量に持ってるんじゃね?」っていう誤解で、この問題を回避するために画像の特徴をハッシュ化して持っているわけです。
# とはいえ、何もない状態からハッシュ値を得られるかというとそうでもないわけで、
# 必ず初期の学習段階ではそれなりの数の児童ポルノ(とそうでないもの)を処理しなければならない矛盾もあったりしますが・・・・
「USBメモリ」を「USB」と呼んで良い? (スコア:0)
「ハッシュ値」とは「ハッシュ関数(任意のデータから別のデータを得る関数)で生成した値」なので、message digestもそのうちの1つで間違ってはいないですよ。
その論理だと、「USB」とは「コンピュータ等の情報機器に周辺機器を接続するためUniversal Serial Busというシリアルバス規格の製品」なので、「(USB規格を満たした)USBメモリ」もそのうちの1つなので問題ないことになりませんか。
狭義の概念を示すのに、広義な単語を使用することは誤解を招くことになるので望ましくないのではないでしょうか。
例えば、パソコンだけでなくスマートフォンもゲーム機も電卓も「コンピュータ」と読んだら語弊があるはず。
Re:「USBメモリ」を「USB」と呼んで良い? (スコア:1)
んー?
USB=シリアルバス規格だよね?
その製品を指してUSBなんて言う奴いる?
頭の悪い人が、USBメモリとUSBの関係性を理解出来ないのはしょうがない。
一般人ならどうでもいいしね。
# ファミコンは語弊か~
Re: (スコア:0)
双子のうち片方が誘拐されて行方不明になり、もう片方の写真をとったら、
警察が踏み込んできて摘発されそう
日本でも警察の顔認証システムとか双子の場合はそれだけじゃ特定できないよね?
まあ双子のうちどちらかが犯人まで絞り込んだら、あとは他の方向で特定するだろうが
Re: (スコア:0)
ユーリオン [wikipedia.org]が誤爆するような感じになるんですかね。
ピンクの同心円を誤爆する [it.srad.jp]ような馬鹿な事が起きないと良いなぁ。
本物を使わずに、衝突するデータを沢山集めて送り付ける事で、アカウントロックさせたり、体制側がチェック可能になるという悪用が可能になるのが一番心配かな。
あとは、二次元でどの程度誤爆されるかと、アジア人に対して誤爆した結果の集団訴訟対策がどの程度の速さで起きるかが気になるね。
# クラウドはパブリックスペースなのでエロを保存とか有り得ないと思ってるAC
Re: (スコア:0)
まーたいつもの自信満々に逆張りマンか
Re:「ハッシュとの照合」の「ハッシュ」は「message digest」ではないので注意 (スコア:2)
ブルーフィルムなら知ってます(規制
デジカメ復興の兆し? (スコア:1)
スマホだといろんな制限で我が家のあかちゃん写真が撮れなかったりしますが、デジカメならだいじょーぶ
Re:デジカメ復興の兆し? (スコア:2, すばらしい洞察)
まあフイルムカメラ時代でも、現像焼付けに出せば、作業員の検閲にあってましたから。
Re: (スコア:0)
クラウドに繋がらない機械は売れないから…
Re: (スコア:0)
というのがこれから引っくり返るんじゃね?というネタかと思ったけど。
Re: (スコア:0)
そうなんだけど、これでクラウドのプライバシーに対する不信感が強まるかというと
警告して保護者にも通知 (スコア:1)
ドン引き
クラウドの中身検閲はかなり以前から各社やってたから今更かな
コンピュータは自由でクリエイティブなものでなければならないけど、スマホは子供も使う家電なのでその限りではない
自分の所有するデバイスの走査 (スコア:0)
犯罪統計からユーザの何%が犯罪者だったらスキャンが許される?
・0.01%
・0.1%
・1%
・割合は関係なく許されない
全裸 (スコア:0)
子供に全裸のイヌやネコの写真を送ったらぼかされるんか?
Re: (スコア:0)
毛皮を裸とは言わないと思うけど、
ハダカデバネズミや猫のスフィンクスにはぼかしが入るかもしれん。
ダビデ像を肌色に着色した正面画像もぼかしが入りそうだ。
自動性的虐待素材 (スコア:0)
自動的に素材を作れるのかと思った。
あくまでも既存の素材とのハッシュ値との照合なのかな?
ロリコン絶対悪 (スコア:0)
だから、何をしても許される
Re: (スコア:0)
同意!
もっとやれ!
Re: (スコア:0)
以上、リベラル=赤のやり口でした。
Re: (スコア:0)
本多平直はリベラルじゃ無かった!
Re: (スコア:0)
60才ぐらいかな
iPhone使うのやめよ (スコア:0)
元々使ってなかったわw
勝手にリソース消費 (スコア:0)
ユーザーが望んでクラウドに保存しているのではなく、検閲のために勝手にデータをクラウドにアップロードして通信容量を消費するなんてのはもっての外だが、
個人の端末内にあるデータを勝手に全部検閲して計算リソースやバッテリーを消費するのも何だかなあ。
児童虐待と全く関係のない人はリソース消費され損じゃん。
Re: (スコア:0)
自分は白です、という証拠になるんじゃね?
Re: (スコア:0)
空港の保安検査、税関の検査・検疫、警察の職務質問にも同様のことが言えますね
Re: (スコア:0)
一部の行方不明になった子供が性的暴行を受けてるからって、アメリカ政府は税金入れてまでここまでやる必要はない。
NCMECはあまり関係ない事業やるなら解体するべきでは。NCMECの今の代表は連邦保安局からの天下りだし。
Re: (スコア:0)
Appleが主導の取り組みなんだからNCMECがどうとか関係ないでしょ
NCMECが解体されたらされたで他のCSAM画像データベース使うだけ
Re: (スコア:0)
今までもブラジャーに縁がない人もリソースを消費してたじゃん
と書いてから、リンクを張ろうと思って、「ブラジャーの写真 iphone」で検索した。
出てくる検索結果によると、iPhoneで服を透かすことができるらしいぞ。
まあ、iPhoneもってないし、興味もないから、本当なのか、リンクを稼ぐための嘘なのかは知らんが。
Re: (スコア:0)
そうだね、Microsoft 365やAzureを使うときにもMSの批判しないよう気をつけないと。
Re: (スコア:0)
Appleの話すると必ずMS引き合いに出す奴いるけど、もしかしてコンプレックス?
Re: (スコア:0)
そんな発想をするのは中国だけかと
それにもう中国では既に反政府的な書き込みは監視されているし、戦車画像とか削除対象になってるでしょ。
Re: (スコア:0)
冗談が通じないタイプのお方ですか?
Re:あと5年ぐらいしたら (スコア:1)
残念だけど、スラドには本当に頭のおかしい人もいるから一応面白くないと冗談判定しにくいのよ。
Re: (スコア:0)
Apple大嫌いなのになぜか詳しくてWindowsを持ってくると発狂するやつとかな
Re: (スコア:0)
というか中共に共感するタイプの名誉共産党員なんでしょ
これがヤバいという感覚がないのはそういう事
Re: (スコア:0)
LARTHの日記にカエレ
Re: (スコア:0)
これが冗談だと思って書いているならセンスが全くなくて笑えません。
Re: (スコア:0)
皮肉に皮肉を返すアレゲ的テクニック
Re: (スコア:0)
あの天下のApple様がそんな事するわけないだろ!いい加減にしろ!
Re: (スコア:0)
中国のUGCコンテンツを使うサイトとか、
・見るだけ とくに身分確認無し
・コメント書き込み 身分確認必須
・動画アップロード もう一段階上の確認が必須
とか3段階だったりするよね
身分確認なしで使うにはROM専にならないといけない
Re: (スコア:0)
なら何の問題も無いな。
Re: (スコア:0)
既に原因不明のアカウント凍結問題が
Re:あんまり指摘されてないけど (スコア:2, 興味深い)
性的写真を撮れないスマホを作ってほしい、NPO団体がアップルとグーグルに要望準備
https://apple.srad.jp/story/21/01/24/1558253/ [apple.srad.jp]