
性的写真を撮れないスマホを作ってほしい、NPO団体がアップルとグーグルに要望準備 194
ストーリー by nagazou
文化から宗教までいろんな分野で議論が必要になりそう 部門より
文化から宗教までいろんな分野で議論が必要になりそう 部門より
あるAnonymous Coward 曰く、
弁護士ドットコムによれば、NPO団体がスマートフォンOSベンダーであるAppleとGoogleに対して、AI技術を用いて性的写真を撮れないスマートフォンを作ってほしいという要望書を提出しようと計画しているという(弁護士ドットコム)。
現在のスマートフォンは1世代前のパソコンと同程度の処理能力を有し、機械学習を用いれば、技術的には可能とのこと。これは児童ポルノやリベンジポルノの犯罪に対し未然に防ぐ機能であるとし、これはAI技術を活用した運転支援機能と同じようなものだと説明している。
筆者自身、子を持つ親の心情はとても理解できるが、何をもって性的かどうかという主観的な問題をどこまで機械学習で判別することはできるのだろうか。写真は判別できたとしても動画であればどうなのかも気になる。スラド諸氏はどのように考えているか知りたい。
もっとよく考えてから発言しよう (スコア:5, すばらしい洞察)
客観的な被害の証拠が撮れないって、被害者にとっては地獄じゃ無いか?
犯罪者が馬鹿だから証拠として画像が残って、裁判では貴重な物証として有罪を導き出した事も相当あるでしょう。
裸のおっさんが暴れてても、その証拠写真が撮れないって、被害者から対抗手段を一個奪う事にもなる訳で、デメリットが大きすぎる。
SNSとかでデータを送信できなくするとかなら、まぁ分からないでも無いが、証拠すら残させないってのは、見えなきゃ何も起きてないっていう、最低の大人の発想だわ。
あたおか案件 (スコア:2)
自分は例外だと思ってるんだろうか…
Re:あたおか案件 (スコア:3)
Re:あたおか案件 (スコア:3)
なぜこの手の人たちは自ら管理されたがるのだろう。
自分は例外だと思ってるんだろうか…
「管理されたがる」というよりも「現状では保護されていないので保護を求めてる」んだと思うよ
自由よりも安全を望むのは今現在危険を感じてる人にとっては当たり前のこと
で、気持ちはわかるが「性的かどうか」というのをAIで判別するのはすげー難しいと思うんだよな。
シャッター音を必須にするとか(今現在はどうなってるんだっけ?)、撮影場所をタグ付けしてクラウドに記録するとか(エスカレーターや女子トイレで撮影した証拠が残るように)それくらいじゃない?現実的な対応は
Re:あたおか案件 (スコア:2)
「その時点では当の本人は危険とは考えてない」案件ではなかろうか?
それを一律防止するのはなんだかなあ、という気もする。
まあ、そこを差し引いて考えるには、まじめな話、流出した削除該当画像をAIとかコンテンツにIDタグを付けといてネット上に上がってる分を一律消去できる仕組みとかかね。
Re:あたおか案件 (スコア:1)
まあ、そこを差し引いて考えるには、まじめな話、流出した削除該当画像をAIとかコンテンツにIDタグを付けといてネット上に上がってる分を一律消去できる仕組みとかかね。
そっちの方が怖いよ。独裁政権が民主化運動の活動家を暴力的に弾圧したり、特定民族を虐殺しても、その告発・証拠画像や動画はネットから簡単に全部、消せちゃうってことじゃないか。
Re:あたおか案件 (スコア:2)
Re:あたおか案件 (スコア:2)
このNPOが言ってることをまじめにやろうとしたら
こっちのほうがええんじゃない?というだけの話。
肌色コンテンツを絶対許さないカメラにしろ、といってるわけでしょ、これ。
Re:あたおか案件 (スコア:1)
児童ポルノやリベンジポルノの防止が主目的らしいから、シャッター音を必須にしても撮影場所の記録を残しても意味ないんじゃないかな。盗撮と違って、これらのケースでは撮影時は被撮影者の同意があると思われるので。
更にいうと、これらのケースでは当事者は今現在危険を感じていないから撮影を許しちゃってると思うんだよね。なので、3965497と本文および弁護士ドットコムの話では前提条件が食い違ってる気もする。
Re:あたおか案件 (スコア:1)
「○○歳あたりで○○割の人は○○が急激に発達して大人並みになる」と言われている年齢が幾つかあって
それが体格だったり毒物代謝能力だったりに応じて12とか15とか18とか22とか25、35、50や65歳とか色々あるわけ
でもその年齢で急に医学的変化がある物って少なくて「成人年齢を迎えると急に大人になる」という概念は割と建前というかデタラメ
『〈子供〉の誕生(原題『アンシャンレジーム期の子供と家族生活』)』ってタイトル聞いたことない?
成人年齢を上げるべき下げるべきって話じゃなくて、そもそも「子供」「成人」という分断そのものが
近代フランスで思想的に都合よく作られた人工的な区分なんだよね
人によっちゃ学校教育はコスパが良すぎる児童を労働市場から外して老人に仕事を回す機構だって批判をする人もいる
同意ができるはずの大学生とか新社会人だってすぐ宗教とかに騙されるじゃん
だから「未成年者は同意ができない、成人は同意ができる」で済む話じゃなくて
本来はよっぽど同意する側が老獪なビジネスマンでもなきゃ一概に同意を形成できるとは言えないって話
Re:あたおか案件 (スコア:1)
そこまで考えてるか疑問
自分の思ったことを整理せずダイレクトに口に出しているだけなんじゃないか
でもって個人的なことを世の中の総意みたいな話に持っていくから、まわりからは「管理しようとする」なんてふうに見えてしまってるんじゃないか
騒いでる人だけなら「管理しようとする」なんて発想出てこないだろ
ネットに漏れたらやばい写真って (スコア:2)
性的写真は確実に該当すると思うけど、それ以外でもあるよねぇ。
とんでもない変顔写真見たいな笑えるものから、一緒に写っちゃいけない人と密会している写真とか、おそらくどんなジャンルの写真でも被写体にとって、他の人に見られたらイヤだったり困る写真になりうる。
今回のポルノがらみの写真は社会的な合意を取りやすいと思うけど、例えば変顔写真に困っている人たちが集まって変顔が撮れないカメラ、◯◯に困っている人たちがが◯◯を撮れないカメラってやっていったら、そのうちカメラは何も写せなくなるんじゃないかしらね。
こういう人権問題って、機械でどうのこうのするのは本質的な解決でないと思う。市販されるカメラに規制機能をつけても、犯罪とかに使う奴は必ず抜け道を見つけ出す。
リベンジポルノや本人が同意していない写真の流通みたいな問題は、そういう事態を迅速に解決する法的制度や社会制度(警察や政府機関の拡充)の整備で対応するべきだと思うな。
親による制御 (スコア:2)
ぺあれんたるこんとろーるでどうぞ。
Re:親による制御 (スコア:2)
法で縛るのが早い (スコア:1)
シャッター音が出ないように自主規制した結果、どうなったか?
写真が性的かどうかは裁判所で決まる
Re:法で縛るのが早い (スコア:1, すばらしい洞察)
海外で日本人は携帯のシャッター音を切る程度のマナーも守れず程度が低いとバカにされるようになった、かな
Re:法で縛るのが早い (スコア:1)
どこの異世界の話なのやら。
Re:法で縛るのが早い (スコア:2)
ウイグルとかは異世界だよなぁ。
Re: (スコア:0)
つまりシャッターを切ったら自動的に裁判起きるように設定すればいいんだな。
そして撮影者に画像を見せるのは裁判終わったら
全然違うけどまるでフィルム時代の現像のようだ
元AV女優が言い出してるというのが一番の笑いどころ (スコア:1)
私達は買われた系案件。
売れなくなったんで金策の方向性変えたんでしょうね。
AIに夢見すぎ。 (スコア:1)
いくらAIの進化が速いと言っても、人によって感じ方の違う「性的」なんてものを判定させるのは無茶が過ぎるんじゃね?
「親が子供の写真撮ろうとしてAIに蹴られる」とか、凄く仕様も無い展開を想像したわ。
豚肉は切れるけど人は切れない包丁 (スコア:1)
・・・を作れといったら,荒唐無稽なことをいってると多くの人がわかるのに。
なんでIT関係だと,こういうことを平気で言う人が後をたたないのだろうか。
イスラム基準で (スコア:1)
女性の目の周囲以外の肌は性的だから撮影できないようにすべきだよねえ。
NPOの主張がそうではないならば「性的」はどの思想宗教に基づくものなのか明示しなければおかしい。
鉛筆と消しゴム (スコア:0)
「何をもって性的かどうか」なんだけど、〇女子のカテゴリの人たちがこの2つの組み合わせを性的にプラスとマイナスの象徴とする、って取り上げられることがあるんですよね。これ写真からフィルタアウトするんでしょうか。
では (スコア:0)
性的を完璧に定義してください。
Re:では (スコア:2)
ひょっとしたら「エロとは、結構、保守的でバリエーションや多様性に乏しく、100%は無理でも90〜95%ぐらいはパターン認識で何とか成る」んじゃなかろうか??って気もせんでは無い。
Re:では (スコア:1)
世代を重ねていけばどんどん性的な画像になっていくはず
Re:では (スコア:1)
ギリシャ文字のエータと、キリル文字のエヌとどっちがエッチでしょうか。
Re: (スコア:0)
定義はむりだから、女性を撮る時は無条件に写っていいところだけ円形にくりぬいて後は塗りつぶした写真にしよう。
# これなら既存技術(?)を応用したいい感じにマスクしてくれるAIが開発できるかも
Re: (スコア:0)
男児もポルノになりえますよ?
Re: (スコア:0)
男性をは全部塗りつぶせばいいだろ
Re: (スコア:0)
Re: (スコア:0)
自撮りで何故か女性として認識されなくてTwitterでお気持ち砲ぶっぱなすのがオチ。
Re: (スコア:0)
弁護士ドットコムの記事にでてきた、団体所属の女性の写真もじゅーぶんに性的な気がするんだが。これも撮影禁止になるのが彼女らの望む世界なのだろうか。
リベンジポルノや児童ポルノに使われなければOK?
でも世の中には修道女でヌく人も居るぐらいで、何を着ていようがポルノになるみたいなんだよねえ。
統一的基準がないと無理 (スコア:0)
AIは勝手に基準作ってくれる訳じゃなく、
「こう言う画像はOK、これはだめ」って決められた基準を学習してるに過ぎない。
まず「誰もが(少なくともAppleとGoogleとそのユーザが)納得出来る基準」を作るべき。
出来る訳無いと思うけどね。
Re:統一的基準がないと無理 (スコア:1)
https://nlab.itmedia.co.jp/nl/articles/2010/12/news118.html [itmedia.co.jp]
https://togetter.com/li/1656491 [togetter.com]
たまねぎとおっぱい、煮玉子とギャルの尻をそれぞれ見分けたり、一見真っ当なロゴデザインから性的な要素を排除する努力が必要ですね。
基準とやらは当人たちに作ってもらえばいいんじゃないですかね。誰にも文句を言われない基準を作れるもんならやってみろ、と(ロジハラ
Re: (スコア:0)
AIに基準作らせることも可能だよ。
例えば18禁サイトに載ってる画像は性的ってルール使うとか、性的ワードとともに使われる画像を分類してくとかね。
Re:統一的基準がないと無理 (スコア:1)
そんな基準がバラバラなデータで学習させたら、より誤判定の多い役に立たないものになるよ。
ならば、こう! (スコア:0)
顔識別の機能を使って「人間を写すことができないカメラ」にすればいい
カメラ側で人間を検知して、画像の解像度を8x8ドットにしてしまう、という……
性的なものである前提で人間は写さなくてもいいってことでどうかな
不勉強を恥じるばかり (スコア:0)
元記事にこの表現があるから一世代前のノートパソコンで技術的に可能だったってことだよな。
すでに人間の感性を理解する技術がすでに確立していたとは。
金尻:現在のスマホは、一世代前のノートパソコンと同程度の機能を有しています。機械学習機能を用いれば、技術的には可能です。
Re:不勉強を恥じるばかり (スコア:1)
DELLとかだと、ノートPCの新製品の発表は年2回くらいだと思うから、
一世代前というと、2020/6 モデルってことか。
現在のスマホがその機能を有しているかというと……?
これじゃない?これじゃない!! (スコア:0)
これとは違う? [tone.ne.jp]
Re: (スコア:0)
特定の機種で撮れない、じゃなくて、どんな機種でも撮れないようにしてほしいんだと思う。
望み通りに (スコア:0)
人間を検知したら、写真の代わりにこのNPO団体の連絡先が保存されるように実装するとか。
売れる見込みがあるのなら (スコア:0)
売れる見込みがあるのなら作ってくれるんじゃないかな。
Re:売れる見込みがあるのなら (スコア:1)
TONEモバイルが頑張って実装しましたが全く売れませんでした。
そもそも (スコア:0)
AIに夢を見すぎなんじゃないの?
そして自分たちがやるべきことを他人に丸投げしすぎ。
そうやって他人に責任転嫁してきた結果教育レベルが下がってるんじゃないの?
無理 (スコア:0)
「AI技術で性的写真を撮れないスマホを作ってほしい」
「そんな技術はまだ存在しません。不可能です」
はい、終了。
# これに限らず、現在のAIを過剰評価している人が多すぎる。
Re:すでにある (スコア:3)
カメラを被写体に向けるたび
「性的なコンテンツが被写体に含まれているので撮影ができません」って言われたい?
エッジAIじゃくていちいちサーバとやり取りするの?
すでにそれはカメラじゃねえよ。
まじめに規制するなら、SNSなどの出口側しかないと思うのだ。それすら一歩間違えばとんでもないことになるんだけど。
Re:小銃メーカーへの軍の要求 (スコア:1)
// cf. ロボコップ