アカウント名:
パスワード:
AIだろうがアルゴリズムだろうが、「人間」が設計し「人間」がプログラムして生まれる物なんだから最初から担当者の価値観で偏向した結果しか出ないのは当たり前。少なくとも人間以上の何かになれるわけがない。どこまでいっても計算機にすぎんよ。
それが異世界とか第三世界とか人間とは全く違う世界からもたらされたものならともかくね。
AIだろうがアルゴリズムだろうが、「人間」が設計し「人間」がプログラムして生まれる物なんだから最初から担当者の価値観で偏向した結果しか出ないのは当たり前
いや、担当者の価値観とは関係なく差別が生まれることもあるのよ。
https://www.businessinsider.jp/post-177193 [businessinsider.jp]
Amazonの事例だけどエンジニアの履歴書の順位付けをするAIが大量の過去のデータから学習していたので「優秀なエンジニアの条件」と類似した履歴書を選んだらそれはほぼ男性だった(過去のデータはやはりほぼ男性)というのがある。
で、都合の良い過去データはどこから持ってくるの?現状のAIにひらめきなんざないから知らないものは知らないままだぞ
しかも、都合の良い過去データが自分たちで作れるならわざわざ現状のAIに頼る必要性は皆無判定系のAIなんて、最適なアルゴリズムが分かんないからAIに丸投げしてるだけだし
GANがいいんじゃ?
フェミAIを敵対者とすればばっちり!!
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
一つのことを行い、またそれをうまくやるプログラムを書け -- Malcolm Douglas McIlroy
どう思うもなにも (スコア:0)
AIだろうがアルゴリズムだろうが、「人間」が設計し「人間」がプログラムして生まれる物なんだから最初から担当者の価値観で偏向した結果しか出ないのは当たり前。
少なくとも人間以上の何かになれるわけがない。どこまでいっても計算機にすぎんよ。
それが異世界とか第三世界とか人間とは全く違う世界からもたらされたものならともかくね。
Re: (スコア:3)
AIだろうがアルゴリズムだろうが、「人間」が設計し「人間」がプログラムして生まれる物なんだから最初から担当者の価値観で偏向した結果しか出ないのは当たり前
いや、担当者の価値観とは関係なく差別が生まれることもあるのよ。
https://www.businessinsider.jp/post-177193 [businessinsider.jp]
Amazonの事例だけどエンジニアの履歴書の順位付けをするAIが大量の過去のデータから学習していたので「優秀なエンジニアの条件」と類似した履歴書を選んだらそれはほぼ男性だった(過去のデータはやはりほぼ男性)というのがある。
Re: (スコア:1)
ふと思いましたが
都合の悪い過去データは初めからないことにすれば良いんでない?
AIとか使って
どうだろか?
Re:どう思うもなにも (スコア:0)
で、都合の良い過去データはどこから持ってくるの?
現状のAIにひらめきなんざないから知らないものは知らないままだぞ
しかも、都合の良い過去データが自分たちで作れるなら
わざわざ現状のAIに頼る必要性は皆無
判定系のAIなんて、最適なアルゴリズムが分かんないからAIに丸投げしてるだけだし
Re: (スコア:0)
GANがいいんじゃ?
フェミAIを敵対者とすればばっちり!!