アカウント名:
パスワード:
iPhoneをiCloud自動連携していて、去年子供が産まれて写真をとりまくっているので。当然ですが、中には臍の緒付きの全裸の写真や、オムツ一丁で遊びまくっている写真とかもあります。これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?
# なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。
大義を成すためには小さな犠牲はつきものです。
GANで生成した画像をアップする仕事に戻れ今すぐにだ
># なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。
OneDriveは、既に何年も前からOneDrive内の画像などをスキャンしているようですので、そちらはそちらで微妙かもしれません。
Microsoft、OneDriveに保存されていた児童ポルノ画像を通報、ユーザーが逮捕される | スラド IT [it.srad.jp]
また、海外では親が子供と一緒にお風呂に入っている写真のようなものがあると性的虐待や児童ポルノとして警察沙汰にな
画像そのものを見て判断するんじゃなくて、「既存の」ポルノ画像のデータ配列と部分一致するかで判定する、って中の人が言ってたよなので当然我が子の全裸画像は検閲スルーってわけ、で少なくともAppleに関しては上記の仕組みから人力ではない
Winnyで開発続けてたら流出対策できたのにな…ってのに通じる話でもあるな
いつiCloud上の画像が既存入りするか分からんのが怖いよね。APPLEはそういうのオープンにはしないだろうし。
人力で確認されるには複数該当した場合ってことなんで確率としては低いほんとの児童ポルノ置いてるならすでに単純所持は違法だからとっとと捨てろよ
例のDBに加えるのはAppleじゃなくNCMECって団体なんで、Appleは実際どんな画像かも知らないのでは。
児童ポルノ以外の政治的な画像のハッシュを加えられたら検閲になって大変なことに〜ってのが問題視してる人たち。でも管理してるのはNCMECってアメリカの団体だから、中国政府が監視したい画像ハッシュをAppleに渡しても無駄か。(Appleは対応しちゃうのかな?)
> これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?
人間ではなく計算機による画像認識で判断してアカウントBANされるリスクが存在するので、アカウントが残っているうちにそういう写真はクラウドから消し、全部ローカル保存に移行することをお勧めします。AppleだけじゃなくてGoogleその他、海外サービスは全部そういうリスクがあるし、児童ポルノ扱いの場合だと永久BANで、新規アカウント作成もできないなんて可能性もあるかも...
2013年には既に写真が原因と思われるGoogleアカウントBANがニュースになっていました:https://nlab.itmedia.co.jp/nl/articles/1306/25/news042.html [itmedia.co.jp]
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
日々是ハック也 -- あるハードコアバイナリアン
iColud裸の児童の写真をたくさんUPしてます (スコア:0)
iPhoneをiCloud自動連携していて、去年子供が産まれて写真をとりまくっているので。
当然ですが、中には臍の緒付きの全裸の写真や、オムツ一丁で遊びまくっている写真とかもあります。
これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?
# なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。
Re: (スコア:0)
大義を成すためには小さな犠牲はつきものです。
Re: (スコア:0)
GANで生成した画像をアップする仕事に戻れ
今すぐにだ
Re: (スコア:0)
># なお容量の関係上、溢れたぶんはiColudから消してOneDriveにアップロードしてます。
OneDriveは、既に何年も前からOneDrive内の画像などをスキャンしているようですので、そちらはそちらで微妙かもしれません。
Microsoft、OneDriveに保存されていた児童ポルノ画像を通報、ユーザーが逮捕される | スラド IT [it.srad.jp]
また、海外では親が子供と一緒にお風呂に入っている写真のようなものがあると性的虐待や児童ポルノとして警察沙汰にな
Re: (スコア:0)
画像そのものを見て判断するんじゃなくて、「既存の」ポルノ画像のデータ配列と部分一致するかで判定する、って中の人が言ってたよ
なので当然我が子の全裸画像は検閲スルーってわけ、で少なくともAppleに関しては上記の仕組みから人力ではない
Winnyで開発続けてたら流出対策できたのにな…ってのに通じる話でもあるな
Re:iColud裸の児童の写真をたくさんUPしてます (スコア:1)
いつiCloud上の画像が既存入りするか分からんのが怖いよね。
APPLEはそういうのオープンにはしないだろうし。
Re: (スコア:0)
人力で確認されるには複数該当した場合ってことなんで確率としては低い
ほんとの児童ポルノ置いてるならすでに単純所持は違法だからとっとと捨てろよ
Re: (スコア:0)
例のDBに加えるのはAppleじゃなくNCMECって団体なんで、
Appleは実際どんな画像かも知らないのでは。
児童ポルノ以外の政治的な画像のハッシュを加えられたら検閲になって大変なことに〜
ってのが問題視してる人たち。
でも管理してるのはNCMECってアメリカの団体だから、
中国政府が監視したい画像ハッシュをAppleに渡しても無駄か。(Appleは対応しちゃうのかな?)
Re: (スコア:0)
> これだって見る人が見れば児童ポルノだと思いますが、誰がどうやって判断するんですか?
人間ではなく計算機による画像認識で判断してアカウントBANされるリスクが存在するので、
アカウントが残っているうちにそういう写真はクラウドから消し、全部ローカル保存に移行することをお勧めします。
AppleだけじゃなくてGoogleその他、海外サービスは全部そういうリスクがあるし、
児童ポルノ扱いの場合だと永久BANで、新規アカウント作成もできないなんて可能性もあるかも...
2013年には既に写真が原因と思われるGoogleアカウントBANがニュースになっていました:
https://nlab.itmedia.co.jp/nl/articles/1306/25/news042.html [itmedia.co.jp]