パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

Apple、iCloud メールでは既に児童性的虐待素材をスキャンしている」記事へのコメント

  • iPhoneをiCloud自動連携していて、去年子供が産まれて写真をとりまくっているので。
    当然ですが、中には臍の緒付きの全裸の写真や、オムツ一丁で遊びまくっている写真とかもあります。
    これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?

    # なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。

    • by Anonymous Coward

      画像そのものを見て判断するんじゃなくて、「既存の」ポルノ画像のデータ配列と部分一致するかで判定する、って中の人が言ってたよ
      なので当然我が子の全裸画像は検閲スルーってわけ、で少なくともAppleに関しては上記の仕組みから人力ではない

      Winnyで開発続けてたら流出対策できたのにな…ってのに通じる話でもあるな

      • by Anonymous Coward on 2021年08月26日 7時06分 (#4098993)

        いつiCloud上の画像が既存入りするか分からんのが怖いよね。
        APPLEはそういうのオープンにはしないだろうし。

        親コメント
        • by Anonymous Coward

          人力で確認されるには複数該当した場合ってことなんで確率としては低い
          ほんとの児童ポルノ置いてるならすでに単純所持は違法だからとっとと捨てろよ

        • by Anonymous Coward

          例のDBに加えるのはAppleじゃなくNCMECって団体なんで、
          Appleは実際どんな画像かも知らないのでは。

          児童ポルノ以外の政治的な画像のハッシュを加えられたら検閲になって大変なことに〜
          ってのが問題視してる人たち。
          でも管理してるのはNCMECってアメリカの団体だから、
          中国政府が監視したい画像ハッシュをAppleに渡しても無駄か。(Appleは対応しちゃうのかな?)

海軍に入るくらいなら海賊になった方がいい -- Steven Paul Jobs

処理中...