パスワードを忘れた? アカウント作成
15372465 story
MacOSX

Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化 91

ストーリー by headless
強化 部門より
Apple が米国内の Apple デバイスを対象として、子供を性的虐待から守る取り組みの強化を発表した(Apple - Child Safety9to5Mac の記事Mac Rumors の記事The Verge の記事)。

取り組みの中心となるのは児童性的虐待素材 (CSAM) の拡散防止だ。まず、「メッセージ」アプリでは子供が性的に露骨な写真を送受信しようとすると警告して保護者にも通知し、受信した写真にはぼかしがかけられる。性的に露骨な写真はデバイス上の機械学習によって検出され、Apple に写真が送信されることはない。

また、iOS /iPadOS デバイスで写真を iCloud 写真へ保存する際には、全米失踪・被搾取児童センター (NCMEC) などが提供する既知の CSAM 画像のハッシュとの照合をデバイス上で実行する。照合結果は暗号化されたセーフティーバウチャーに格納されて写真とともに iCloud 写真へ保存される。Apple は iCloud 写真に保存された CSAM コンテンツが閾値を超えた場合にのみセーフティーバウチャーへのアクセスが可能となり、確認の上でアカウントの無効化や NCMEC への通報などを行うとのこと。

最後はオンラインでの危険を避けるための Siri と検索による 児童と保護者へのリソース提供だ。Siri と検索はユーザーが CSAM 関連の検索を実行しようとしたときの介入も行う。これらの機能は iOS 15 / iPadOS 15 / watchOS 8 / macOS Montereyで利用可能になる。米国以外での提供に関しては国や地域ごとに決定するとのこと。

しかし、善意の計画であっても悪用される可能性があるため、EFFエドワード・スノーデン氏、WhatsApp 責任者のウィル・キャスカート氏、ジョンズ・ホプキンズ大学で教鞭をとる暗号専門家のマシュー・グリーン氏などをはじめとして、さまざまな懸念が示されている。主な懸念点としては誤検知やハッシュのコリジョンによる攻撃、独裁政権による悪用、テキストへの対象拡大といったものが挙げられる。
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by Anonymous Coward on 2021年08月08日 14時03分 (#4087015)

    プールで遊ぶ孫の画像

    ロリポルノ
    の区別をつけれるようになったのか!?

    • by Anonymous Coward

      見る側の気持ち次第だものなあ
      昔のドリフとか裸の子役が走り回るのをギャグとしてやってたなあ。

      • by Anonymous Coward

        その場面が含まれるドリフの動画を違法アップロードしてるやつは児童ポルノ流通で潰せるってことだよなこれ
        いいこと聞いたわ

        • by Anonymous Coward

          違法アップロードの意味わかってる?

          • by Anonymous Coward

            違法アップロードと児童ポルノの量刑とを勘案して、
            後者の方が重いと判断したんではないでしょうか。

            社会的には後者の方が追求が厳しそうではある。
            あと、一発で刑事案件になるのかな。

  • 「ウェブサイト」を「ホームページ」と呼ぶと怒る技術者の中にも「message digest」を「ハッシュ値」と平気で言っている人が非常に多かった印象なので、
    「ハッシュとの照合」と言うと「いわゆるファイルの SHA-256 ハッシュとかの値」と照合していると勘違いする人が出てきそうですが、そうではありません。

    これは、画像の一部だけを書き換えるなどしてファイルの message digest が違っても、児童ポルノだと検出できる方式で、
    照合しているのは画像の特徴を抽出したデータで完全一致ではなくても検出されます。

    誤検出の可能性は非常に低いとされてますが0ではありません(所謂ハッシュの衝突がどうのという話ではなく、それよりは遥かに高い確率ですしその確率が正しいと検証することも困難です)。

    • 「ハッシュ値」とは「ハッシュ関数(任意のデータから別のデータを得る関数)で生成した値」なので、message digestもそのうちの1つで間違ってはいないですよ。
      ただ、このハッシュ関数はファイルデータそのものに対して適用するのではないというだけです。

      よく言われるのが、「児童ポルノを見つけるってことは、そのサービスの提供元は児童ポルノ画像を大量に持ってるんじゃね?」っていう誤解で、この問題を回避するために画像の特徴をハッシュ化して持っているわけです。

      # とはいえ、何もない状態からハッシュ値を得られるかというとそうでもないわけで、
      # 必ず初期の学習段階ではそれなりの数の児童ポルノ(とそうでないもの)を処理しなければならない矛盾もあったりしますが・・・・

      親コメント
      • 「ハッシュ値」とは「ハッシュ関数(任意のデータから別のデータを得る関数)で生成した値」なので、message digestもそのうちの1つで間違ってはいないですよ。

        その論理だと、「USB」とは「コンピュータ等の情報機器に周辺機器を接続するためUniversal Serial Busというシリアルバス規格の製品」なので、「(USB規格を満たした)USBメモリ」もそのうちの1つなので問題ないことになりませんか。
        狭義の概念を示すのに、広義な単語を使用することは誤解を招くことになるので望ましくないのではないでしょうか。

        例えば、パソコンだけでなくスマートフォンもゲーム機も電卓も「コンピュータ」と読んだら語弊があるはず。

    • by Anonymous Coward

      双子のうち片方が誘拐されて行方不明になり、もう片方の写真をとったら、
      警察が踏み込んできて摘発されそう

      日本でも警察の顔認証システムとか双子の場合はそれだけじゃ特定できないよね?
      まあ双子のうちどちらかが犯人まで絞り込んだら、あとは他の方向で特定するだろうが

    • by Anonymous Coward

      ユーリオン [wikipedia.org]が誤爆するような感じになるんですかね。
      ピンクの同心円を誤爆する [it.srad.jp]ような馬鹿な事が起きないと良いなぁ。
      本物を使わずに、衝突するデータを沢山集めて送り付ける事で、アカウントロックさせたり、体制側がチェック可能になるという悪用が可能になるのが一番心配かな。

      あとは、二次元でどの程度誤爆されるかと、アジア人に対して誤爆した結果の集団訴訟対策がどの程度の速さで起きるかが気になるね。

      # クラウドはパブリックスペースなのでエロを保存とか有り得ないと思ってるAC

    • by Anonymous Coward

      まーたいつもの自信満々に逆張りマンか

  • by Anonymous Coward on 2021年08月08日 13時56分 (#4087007)

    スマホだといろんな制限で我が家のあかちゃん写真が撮れなかったりしますが、デジカメならだいじょーぶ

    • by Anonymous Coward on 2021年08月08日 14時26分 (#4087023)

      まあフイルムカメラ時代でも、現像焼付けに出せば、作業員の検閲にあってましたから。

      親コメント
    • by Anonymous Coward

      クラウドに繋がらない機械は売れないから…

      • by Anonymous Coward

        というのがこれから引っくり返るんじゃね?というネタかと思ったけど。

        • by Anonymous Coward

          そうなんだけど、これでクラウドのプライバシーに対する不信感が強まるかというと

  • by Anonymous Coward on 2021年08月08日 14時44分 (#4087033)

    ドン引き
    クラウドの中身検閲はかなり以前から各社やってたから今更かな

    コンピュータは自由でクリエイティブなものでなければならないけど、スマホは子供も使う家電なのでその限りではない

  • by Anonymous Coward on 2021年08月08日 13時46分 (#4087003)

    犯罪統計からユーザの何%が犯罪者だったらスキャンが許される?
    ・0.01%
    ・0.1%
    ・1%
    ・割合は関係なく許されない

  • by Anonymous Coward on 2021年08月08日 13時59分 (#4087011)

    子供に全裸のイヌやネコの写真を送ったらぼかされるんか?

    • by Anonymous Coward

      毛皮を裸とは言わないと思うけど、
      ハダカデバネズミや猫のスフィンクスにはぼかしが入るかもしれん。
      ダビデ像を肌色に着色した正面画像もぼかしが入りそうだ。

  • by Anonymous Coward on 2021年08月08日 14時04分 (#4087016)

    自動的に素材を作れるのかと思った。

    あくまでも既存の素材とのハッシュ値との照合なのかな?

  • by Anonymous Coward on 2021年08月08日 14時30分 (#4087024)

    だから、何をしても許される

    • by Anonymous Coward

      同意!
      もっとやれ!

      • by Anonymous Coward

        以上、リベラル=赤のやり口でした。

        • by Anonymous Coward

          本多平直はリベラルじゃ無かった!

        • by Anonymous Coward

          60才ぐらいかな

  • by Anonymous Coward on 2021年08月08日 15時29分 (#4087052)

    元々使ってなかったわw

  • by Anonymous Coward on 2021年08月08日 15時46分 (#4087063)

    ユーザーが望んでクラウドに保存しているのではなく、検閲のために勝手にデータをクラウドにアップロードして通信容量を消費するなんてのはもっての外だが、
    個人の端末内にあるデータを勝手に全部検閲して計算リソースやバッテリーを消費するのも何だかなあ。
    児童虐待と全く関係のない人はリソース消費され損じゃん。

    • by Anonymous Coward

      自分は白です、という証拠になるんじゃね?

    • by Anonymous Coward

      空港の保安検査、税関の検査・検疫、警察の職務質問にも同様のことが言えますね

      • by Anonymous Coward

        一部の行方不明になった子供が性的暴行を受けてるからって、アメリカ政府は税金入れてまでここまでやる必要はない。
        NCMECはあまり関係ない事業やるなら解体するべきでは。NCMECの今の代表は連邦保安局からの天下りだし。

        • by Anonymous Coward

          Appleが主導の取り組みなんだからNCMECがどうとか関係ないでしょ
          NCMECが解体されたらされたで他のCSAM画像データベース使うだけ

    • by Anonymous Coward

      今までもブラジャーに縁がない人もリソースを消費してたじゃん

      と書いてから、リンクを張ろうと思って、「ブラジャーの写真 iphone」で検索した。
      出てくる検索結果によると、iPhoneで服を透かすことができるらしいぞ。
      まあ、iPhoneもってないし、興味もないから、本当なのか、リンクを稼ぐための嘘なのかは知らんが。

typodupeerror

ナニゲにアレゲなのは、ナニゲなアレゲ -- アレゲ研究家

読み込み中...