iOSの「写真」アプリがブラジャーの写真を勝手に仕分けしていたことにソーシャルメディアが驚く 63
ストーリー by headless
写真 部門より
写真 部門より
iOSの「写真」アプリがブラジャーの写真を勝手に仕分けしているというTwitterでの投稿から、驚きや困惑、面白がる声が上がっている(The Vergeの記事)。
iOS 10以降の写真アプリには「メモリー」機能が搭載されており、顔やシーン、被写体を自動認識してコレクションを作成できる。Appleの紹介ページでは「車」「木」「雪」「犬」「ビーチ」「山」「花」などが挙げられているが、これはごく一部で、実際には数千種類のシーンや物体を識別するのだという。
昨年のMediumの記事でKenny Yin氏が調査した結果をまとめており、4,000を超える検索可能なシーンの中には「Brassiere」「Bra」「Bras」「Brassieres」が含まれる。多くの語句は単数形と複数形があり、短縮形が含まれるものもあるので、実際に検索可能なシーンの種類は半分以下になるようだ。
iOS 10以降の写真アプリには「メモリー」機能が搭載されており、顔やシーン、被写体を自動認識してコレクションを作成できる。Appleの紹介ページでは「車」「木」「雪」「犬」「ビーチ」「山」「花」などが挙げられているが、これはごく一部で、実際には数千種類のシーンや物体を識別するのだという。
昨年のMediumの記事でKenny Yin氏が調査した結果をまとめており、4,000を超える検索可能なシーンの中には「Brassiere」「Bra」「Bras」「Brassieres」が含まれる。多くの語句は単数形と複数形があり、短縮形が含まれるものもあるので、実際に検索可能なシーンの種類は半分以下になるようだ。
つまりは (スコア:3, おもしろおかしい)
BIG BRASSIERE IS WATCHING YOU
ってことか。
Re: (スコア:0)
不覚にもこんなギャグでクスッとしてしまった。
俺ももうオヤジか
次は (スコア:2, すばらしい洞察)
カップのサイズで分類ですね、わかります。
価格コム (スコア:1)
顔認証から服飾を引き算するにも「仕分け」カテゴライズは不可欠だよね。
Re:価格コム (スコア:2, 参考になる)
最近のエロ動画サイトは女優名が書かれてない動画も画像を解析して分類・オススメに出してくるだろう。
何をいまさら。
Re: (スコア:0)
それはタグが付いてるからっていうだけのような。
twitter上で「女優の名前も...わからん...」 (スコア:1)
twitter上で「ダメだ...お手上げだ...女優の名前も作品名もわからん...わからん...」と
3秒の動画を投稿すると周囲からセクシー女優名を指摘するやつが出て、
その後、当の女優から「私です」とツイートされる事態が発生したようです。
http://jin115.com/archives/52197352.html [jin115.com]
Re:価格コム (スコア:1, おもしろおかしい)
蓮舫議員の写真は「仕分け」カテゴリでよろしいですか?
Re: (スコア:0)
どの国籍に?
Re:価格コム (スコア:2)
"international"ですね。
Re:価格コム (スコア:2)
個人的にはシリコングラフィックスの略称の方が好きです。
Re: (スコア:0)
Re: (スコア:0)
「多重」の誤り
Re:価格コム (スコア:1)
今回の選挙では国籍を確認とかしたんですかね?
選管は。
「日本国籍を持っていること」だけが公選法の規定なので日本国籍を持ってることは確認しますが、他の国の国籍についてはそれは他の国の問題なので気にしませんし、調べたら違法でしょ。
Re: (スコア:0, すばらしい洞察)
蓮舫に反応してbotのようなコメントするお前のほうがおかしすぎる
複数の条件に一致 (スコア:1)
する場合の優先度が気になる
逆に優先度をユーザが設定できればいいかもね
Re: (スコア:0)
bla bla bla
ただし、イケメンに限る(顔認証) (スコア:0)
人のスマホを見たら、所有者がどんな男をイケメンと思っているのか、どんな男が元カレなのか、すぐにわかる時代なのさ。
そしてイケメンなら所有者じゃなくても顔認証突破でロック解除、ブサメンは100万回に1回しか突破できない。
Re: (スコア:0)
>ブサメンは100万回に1回しか突破できない。
僅かに希望を残すなんて…パンドラですね。
--諦めたらそこで(試合|地獄)終了。諦めなければ(試合|地獄)続行。
Re: (スコア:0)
仮に女性(?)が「イケメン」タグを付けた写真を学習に使ったとしても、
単純にブランド物の衣服着こなしコンテストになりそうな悪寒。
メガネ属性とかヒゲ属性とかあったら笑える。
#現実にはノイズに対処するのが難しいかも。
#たとえばブサイクな人が自分の写真に「イケメン」タグを付けたらどうなる?
Re:ただし、イケメンに限る(顔認証) (スコア:1)
いえいえ、今時、タグを手動でつけているようじゃだめですよ。
見るときの表情、見るときの心拍数、見るときの時間、写真を見る回数、連絡帳の中身、メッセージ中身、通話時の声色、Webの閲覧履歴などを総合的に判断材料にしてイケメン判断をするのです。
「スマホを覗くとき、スマホもまたこちらを覗いているのだ」 ― ニーチェ
Re:ただし、イケメンに限る(顔認証) (スコア:1)
「よし、彼女を吊り橋につれてって、俺の写真を見せよう。」
これが「吊り橋効果」の起源である。(民明書房 以下略)
Re: (スコア:0)
そしてガチムチ男の画像ばかりになるのですね。
Re: (スコア:0)
>単純にブランド物の衣服着こなしコンテストになりそうな悪寒。
資料用にPinterestでファッション画像を集めているんだけど、逆に素体の方(主に芸能人)からアクセスして
保存していくユーザーの方が多い感じ。
定番のネタ (スコア:0)
ブラジャーと大胸筋サポーターを正しく区別できるのでしょうか
Re: (スコア:0)
大胸筋*矯正*サポーターですね。
Re: (スコア:0)
ブラとメガネと眼帯とか。
#光線銃ジリオンの、胸に付けるターゲットみたいな奴とか
エロ禁止 (スコア:0)
家族向けのスライドショーにブラジャー写真が入ってたらまずいだろ。そのためだよ。
Re:エロ禁止 (スコア:1)
ビキニの水着とかは家族でも見られたら困らない(ケースのほうが多い)と思う。
変に分類されると「あれ、今年の夏に海に行ったときの写真、父も母も弟もあるのに、姉の写真だけないぞ」みたいなことには・・・?
Re: (スコア:0)
ブラしかないのは何でだろうと思い考えてみた。
結果、ブラまではOKとなった。
Re: (スコア:0)
識別できるのが正面から見たブラまでなんでは。
#背中側から紐が見えただけでも識別できた例って報告されてます?
下の方はパンツとズボンの区別さえできないかもしれない。
Re:エロ禁止 (スコア:1)
識別できるのが正面から見たブラまでなんでは。
横から見たら見えないなんて
寄せ上げすらできないということか!
Re: (スコア:0)
断崖絶壁の良さが理解できないようでは、AIには愛が足りないな。
Re: (スコア:0)
じゃあブラジャーとっちゃいましょうね
# ヌードカメラマンの仕事が楽になりそう
顔と間違えたんじゃ無くて (スコア:0)
正しくはっきりブラジャーなんだねぇ…
トランクスとかブリーフなんかも区別してくれんのかな
iCloud必須という事は… (スコア:0)
画像の特徴量抽出と既存の画像との一致度判定はAppleのiCloudサーバ側でやっているということでよいでしょうか。
Re: (スコア:0)
クライアント側でやったら学習結果を簡単に盗めるからね。サーバーでやるしかない。
でも特徴量抽出とか一致度判定ではやってないよ(それらも使ってはいるけどそれ自体は肝じゃない)。
Re: (スコア:0)
画像認識とか、すべて端末側じゃなかったっけ。
機械学習向けのチップも載ってるし。効率悪いけどプライバシー重視で、同じことをiPhone、iPadそれぞれでやってるんじゃなかったっけ。
WWDC2016の時はそう説明してたはず。
OneDriveも・・・ (スコア:0)
OneDriveに画像データを入れたときに自動で付けられるタグも結構おかしなものがある。
AIなのか? (スコア:0)
この手のフィルタってやっぱりAIとか使っているのでしょうか?
ブラジャーを学習させるところを想像すると何だか面白い。
下着通販のカタログを片っ端から…
#AIが判断に迷う写真を見てみたい。ブラ…ジャー?な写真とはいったい…
#眼鏡とかメガネとか分類できるの?できるの?
Re: (スコア:0)
つ https://gigazine.net/news/20171102-fooling-neural-networks/ [gigazine.net]
Re:AIなのか? (スコア:1)
ブラジャーの場合は…そうですね、ボディーペイントを試してみては。
間違ってもツイッターにアップするんじゃないぞ。
#分類機能で遊ぶのはちょっと面白いかも知れませんね。
#亀…
Re: (スコア:0)
アップするなよ。絶対だぞ。
Re: (スコア:0)
目玉つければ行けそう
Re: (スコア:0)
ふと思ったけど、分類ってどこでやってるんだろ。クラウド上だろうか。ユーザーの画像を分類するついでに学習してたりして。タグが手動で付けてあると自動で学習できそう。しかしこの場合、暗号化アップロードされ自動学習しその後消去されると分かっていても微妙に嫌だなぁ。
#オレオレ、そうAIだけど、ちょっと学習してもいいかな。今ブラジャーについて学んでるんだけど。ちょっと見るだけだから。ブラジャー占いとかもできるよ。
Re: (スコア:0)
老婆に対する電話ですか
Re: (スコア:0)
AIもげんなりすることはあるのだろうか…
Re: (スコア:0)
ブラジャーのタグがついたクラウドからあふれ出すほどの画像を収集する紳士のサーバー
解放してくれませんか?
Re: (スコア:0)
紳士は画像をクラウドには保存しない。
Re: (スコア:0)
ディープラーニング含む画像認識が判断を誤る(人間風に言えば「錯覚を起こす」)のは
珍しくないそうですよ。それも人間とは異なる傾向で出てくるので、判断が難しい。
https://srad.jp/story/10/01/06/0122212/ [srad.jp]
http://ventureclef.com/blog2/?p=2827 [ventureclef.com]