パスワードを忘れた? アカウント作成
13446919 story
プライバシ

iOSの「写真」アプリがブラジャーの写真を勝手に仕分けしていたことにソーシャルメディアが驚く 63

ストーリー by headless
写真 部門より
iOSの「写真」アプリがブラジャーの写真を勝手に仕分けしているというTwitterでの投稿から、驚きや困惑、面白がる声が上がっている(The Vergeの記事)。

iOS 10以降の写真アプリには「メモリー」機能が搭載されており、顔やシーン、被写体を自動認識してコレクションを作成できる。Appleの紹介ページでは「車」「木」「雪」「犬」「ビーチ」「山」「花」などが挙げられているが、これはごく一部で、実際には数千種類のシーンや物体を識別するのだという。

昨年のMediumの記事でKenny Yin氏が調査した結果をまとめており、4,000を超える検索可能なシーンの中には「Brassiere」「Bra」「Bras」「Brassieres」が含まれる。多くの語句は単数形と複数形があり、短縮形が含まれるものもあるので、実際に検索可能なシーンの種類は半分以下になるようだ。
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • つまりは (スコア:3, おもしろおかしい)

    by Anonymous Coward on 2017年11月04日 14時11分 (#3306853)

    BIG BRASSIERE IS WATCHING YOU
    ってことか。

    • by Anonymous Coward

      不覚にもこんなギャグでクスッとしてしまった。
      俺ももうオヤジか

  • 次は (スコア:2, すばらしい洞察)

    by Anonymous Coward on 2017年11月03日 18時54分 (#3306624)

    カップのサイズで分類ですね、わかります。

  • by pongchang (31613) on 2017年11月03日 17時20分 (#3306596) 日記
    通販サイトを運営したいなら、下着に限らず、靴下とかポンチョとか、「仕分け」られると便利だよね。
    顔認証から服飾を引き算するにも「仕分け」カテゴライズは不可欠だよね。
  • by DesKwa (35996) on 2017年11月03日 17時58分 (#3306609)

    する場合の優先度が気になる
    逆に優先度をユーザが設定できればいいかもね

  • by Anonymous Coward on 2017年11月03日 17時34分 (#3306601)

    人のスマホを見たら、所有者がどんな男をイケメンと思っているのか、どんな男が元カレなのか、すぐにわかる時代なのさ。
    そしてイケメンなら所有者じゃなくても顔認証突破でロック解除、ブサメンは100万回に1回しか突破できない。

    • by Anonymous Coward

      >ブサメンは100万回に1回しか突破できない。
      僅かに希望を残すなんて…パンドラですね。
      --諦めたらそこで(試合|地獄)終了。諦めなければ(試合|地獄)続行。

    • by Anonymous Coward

      仮に女性(?)が「イケメン」タグを付けた写真を学習に使ったとしても、
      単純にブランド物の衣服着こなしコンテストになりそうな悪寒。

      メガネ属性とかヒゲ属性とかあったら笑える。

      #現実にはノイズに対処するのが難しいかも。
      #たとえばブサイクな人が自分の写真に「イケメン」タグを付けたらどうなる?

      • by Anonymous Coward on 2017年11月04日 9時47分 (#3306784)

        いえいえ、今時、タグを手動でつけているようじゃだめですよ。
        見るときの表情、見るときの心拍数、見るときの時間、写真を見る回数、連絡帳の中身、メッセージ中身、通話時の声色、Webの閲覧履歴などを総合的に判断材料にしてイケメン判断をするのです。

        「スマホを覗くとき、スマホもまたこちらを覗いているのだ」 ― ニーチェ

        親コメント
      • by Anonymous Coward

        >単純にブランド物の衣服着こなしコンテストになりそうな悪寒。

        資料用にPinterestでファッション画像を集めているんだけど、逆に素体の方(主に芸能人)からアクセスして
        保存していくユーザーの方が多い感じ。

  • by Anonymous Coward on 2017年11月03日 17時36分 (#3306602)

    ブラジャーと大胸筋サポーターを正しく区別できるのでしょうか

    • by Anonymous Coward

      大胸筋*矯正*サポーターですね。

    • by Anonymous Coward

      ブラとメガネと眼帯とか。

      #光線銃ジリオンの、胸に付けるターゲットみたいな奴とか

  • by Anonymous Coward on 2017年11月03日 17時46分 (#3306606)

    家族向けのスライドショーにブラジャー写真が入ってたらまずいだろ。そのためだよ。

    • by Suzuno (48093) on 2017年11月03日 18時36分 (#3306617) 日記

      ビキニの水着とかは家族でも見られたら困らない(ケースのほうが多い)と思う。

      変に分類されると「あれ、今年の夏に海に行ったときの写真、父も母も弟もあるのに、姉の写真だけないぞ」みたいなことには・・・?

      親コメント
    • by Anonymous Coward

      ブラしかないのは何でだろうと思い考えてみた。
      結果、ブラまではOKとなった。

      • by Anonymous Coward

        識別できるのが正面から見たブラまでなんでは。
        #背中側から紐が見えただけでも識別できた例って報告されてます?

        下の方はパンツとズボンの区別さえできないかもしれない。

        • by Anonymous Coward on 2017年11月03日 22時16分 (#3306685)

          識別できるのが正面から見たブラまでなんでは。

          横から見たら見えないなんて
          寄せ上げすらできないということか!

          親コメント
          • by Anonymous Coward

            断崖絶壁の良さが理解できないようでは、AIには愛が足りないな。

    • by Anonymous Coward

      じゃあブラジャーとっちゃいましょうね

      # ヌードカメラマンの仕事が楽になりそう

  • by Anonymous Coward on 2017年11月03日 18時13分 (#3306613)

    正しくはっきりブラジャーなんだねぇ…
    トランクスとかブリーフなんかも区別してくれんのかな

  • by Anonymous Coward on 2017年11月03日 19時34分 (#3306633)

    画像の特徴量抽出と既存の画像との一致度判定はAppleのiCloudサーバ側でやっているということでよいでしょうか。

    • by Anonymous Coward

      クライアント側でやったら学習結果を簡単に盗めるからね。サーバーでやるしかない。
      でも特徴量抽出とか一致度判定ではやってないよ(それらも使ってはいるけどそれ自体は肝じゃない)。

    • by Anonymous Coward

      画像認識とか、すべて端末側じゃなかったっけ。
      機械学習向けのチップも載ってるし。効率悪いけどプライバシー重視で、同じことをiPhone、iPadそれぞれでやってるんじゃなかったっけ。
      WWDC2016の時はそう説明してたはず。

  • by Anonymous Coward on 2017年11月03日 19時44分 (#3306636)

    OneDriveに画像データを入れたときに自動で付けられるタグも結構おかしなものがある。

  • by Anonymous Coward on 2017年11月03日 19時51分 (#3306640)

    この手のフィルタってやっぱりAIとか使っているのでしょうか?
    ブラジャーを学習させるところを想像すると何だか面白い。
    下着通販のカタログを片っ端から…

    #AIが判断に迷う写真を見てみたい。ブラ…ジャー?な写真とはいったい…
    #眼鏡とかメガネとか分類できるの?できるの?

      • by Anonymous Coward on 2017年11月03日 21時31分 (#3306669)

        ブラジャーの場合は…そうですね、ボディーペイントを試してみては。
        間違ってもツイッターにアップするんじゃないぞ。

        #分類機能で遊ぶのはちょっと面白いかも知れませんね。
        #亀…

        親コメント
        • by Anonymous Coward

          アップするなよ。絶対だぞ。

          • by Anonymous Coward

            目玉つければ行けそう

    • by Anonymous Coward

      ふと思ったけど、分類ってどこでやってるんだろ。クラウド上だろうか。ユーザーの画像を分類するついでに学習してたりして。タグが手動で付けてあると自動で学習できそう。しかしこの場合、暗号化アップロードされ自動学習しその後消去されると分かっていても微妙に嫌だなぁ。

      #オレオレ、そうAIだけど、ちょっと学習してもいいかな。今ブラジャーについて学んでるんだけど。ちょっと見るだけだから。ブラジャー占いとかもできるよ。

      • by Anonymous Coward

        老婆に対する電話ですか

        • by Anonymous Coward

          AIもげんなりすることはあるのだろうか…

    • by Anonymous Coward

      ブラジャーのタグがついたクラウドからあふれ出すほどの画像を収集する紳士のサーバー
      解放してくれませんか?

      • by Anonymous Coward

        紳士は画像をクラウドには保存しない。

    • by Anonymous Coward

      ディープラーニング含む画像認識が判断を誤る(人間風に言えば「錯覚を起こす」)のは
      珍しくないそうですよ。それも人間とは異なる傾向で出てくるので、判断が難しい。

      https://srad.jp/story/10/01/06/0122212/ [srad.jp]
      http://ventureclef.com/blog2/?p=2827 [ventureclef.com]

typodupeerror

未知のハックに一心不乱に取り組んだ結果、私は自然の法則を変えてしまった -- あるハッカー

読み込み中...