パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

Apple、iCloud メールでは既に児童性的虐待素材をスキャンしている」記事へのコメント

  • by Anonymous Coward on 2021年08月25日 20時49分 (#4098812)

    iPhoneをiCloud自動連携していて、去年子供が産まれて写真をとりまくっているので。
    当然ですが、中には臍の緒付きの全裸の写真や、オムツ一丁で遊びまくっている写真とかもあります。
    これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?

    # なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。

    • by Anonymous Coward

      大義を成すためには小さな犠牲はつきものです。

    • by Anonymous Coward

      GANで生成した画像をアップする仕事に戻れ
      今すぐにだ

    • by Anonymous Coward

      ># なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。

      OneDriveは、既に何年も前からOneDrive内の画像などをスキャンしているようですので、そちらはそちらで微妙かもしれません。

      Microsoft、OneDriveに保存されていた児童ポルノ画像を通報、ユーザーが逮捕される | スラド IT [it.srad.jp]

      また、海外では親が子供と一緒にお風呂に入っている写真のようなものがあると性的虐待や児童ポルノとして警察沙汰にな

    • by Anonymous Coward

      画像そのものを見て判断するんじゃなくて、「既存の」ポルノ画像のデータ配列と部分一致するかで判定する、って中の人が言ってたよ
      なので当然我が子の全裸画像は検閲スルーってわけ、で少なくともAppleに関しては上記の仕組みから人力ではない

      Winnyで開発続けてたら流出対策できたのにな…ってのに通じる話でもあるな

      • by Anonymous Coward on 2021年08月26日 7時06分 (#4098993)

        いつiCloud上の画像が既存入りするか分からんのが怖いよね。
        APPLEはそういうのオープンにはしないだろうし。

        親コメント
        • by Anonymous Coward

          人力で確認されるには複数該当した場合ってことなんで確率としては低い
          ほんとの児童ポルノ置いてるならすでに単純所持は違法だからとっとと捨てろよ

        • by Anonymous Coward

          例のDBに加えるのはAppleじゃなくNCMECって団体なんで、
          Appleは実際どんな画像かも知らないのでは。

          児童ポルノ以外の政治的な画像のハッシュを加えられたら検閲になって大変なことに〜
          ってのが問題視してる人たち。
          でも管理してるのはNCMECってアメリカの団体だから、
          中国政府が監視したい画像ハッシュをAppleに渡しても無駄か。(Appleは対応しちゃうのかな?)

    • by Anonymous Coward

      > これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?

      人間ではなく計算機による画像認識で判断してアカウントBANされるリスクが存在するので、
      アカウントが残っているうちにそういう写真はクラウドから消し、全部ローカル保存に移行することをお勧めします。
      AppleだけじゃなくてGoogleその他、海外サービスは全部そういうリスクがあるし、
      児童ポルノ扱いの場合だと永久BANで、新規アカウント作成もできないなんて可能性もあるかも...

      2013年には既に写真が原因と思われるGoogleアカウントBANがニュースになっていました:
      https://nlab.itmedia.co.jp/nl/articles/1306/25/news042.html [itmedia.co.jp]

日々是ハック也 -- あるハードコアバイナリアン

処理中...