パスワードを忘れた? アカウント作成
12918672 submission
人工知能

AIが審査をするビューティーコンテスト、AIは色白が好き?

タレコミ by headless
headless 曰く、
AIが審査する国際ビューティーコンテスト「Beauty.AI 2.0」が7月に実施されていたそうだ。しかし、勝者の大半が白人であったことから、肌の色によるバイアスがかかっているのではないかとの批判が出ている(The Guardianの記事Motherboardの記事Beauty.AI 2.0 Winners)。

コンテストは専用アプリで撮影したセルフィーを送信することで応募できる仕組みとなっている。撮影時の条件は化粧なし、眼鏡なし、ヒゲなしといったものだ。応募者の写真は皺の量を評価する「RYNKL」、応募者と同じ人種のモデルと比較して類似性を評価する「MADIS」、顔の対称性を評価する「Symmetry Master」、実年齢と外見年齢の差を評価する「AntiAgest」、ニキビやシミを評価する「PIMPL」の5つのロボットが審査を行い、年齢グループ別に男女の勝者が発表されている。

Beauty.AIはYouth LaboratoriesがMicrosoftのサポートにより、ディープラーニングを使用して構築したものだという。明るい肌の色を高評価にするアルゴリズムは含まれないが、発表された勝者44名の大半は白人であり、東アジア系が数名含まれるものの、一見して濃い肌色の勝者は1名しかいない。

このような結果になった理由としてBeauty.AIでCSOを務めるAlex Zhavoronkov氏は、白人以外の美の基準を構築するのに十分なデータがデータセットに含まれていなかった点を挙げている。また、撮影時の明かりが十分でなかった場合に濃い肌色の応募者の写真をアルゴリズムが破棄してしまうこともあったという。

元となるデータセットにバイアスがかかっていれば、アルゴリズムにもバイアスがかかり、それがさらに増幅される可能性もある。データセットが少なければ特定のバイアスが含まれるように汚染することも容易だ。人種的なバイアスを最小化するためには、様々な人種の顔や画像に注釈を入れた大規模で集中的なリポジトリを誰もが使用できるようにする必要があるとZhavoronkov氏は述べているとのことだ。
この議論は、 ログインユーザだけとして作成されたが、今となっては 新たにコメントを付けることはできません。
typodupeerror

コンピュータは旧約聖書の神に似ている、規則は多く、慈悲は無い -- Joseph Campbell

読み込み中...