images


1: 2018/10/11(木) 22:30:59.40 ID:0urIMr6l0● BE:601381941-PLT(13121)
sssp://img.5ch.net/ico/anime_kuma01.gif
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で

[サンフランシスコ 10日 ロイター] - 米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきた
AI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、
運用を取りやめる結果になった。

事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを
駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの
開発に従事してきた。

そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を
5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の
応募者を明示し、われわれが彼らを採用する」と話した。

ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の
中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって
提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、
システムは男性を採用するのが好ましいと認識したのだ。

逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると
評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。

アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが
生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、
最終的に昨年初めにチームは解散したという。

また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って
実際の採用を決定してはいない。

アマゾンの実験が始まったのは、折しも機械学習が本格的に進化し、同社が採用の大幅拡大を企図した
時期に当たっていた。規制当局の届出に基づくと、15年6月以降で社員総数は3倍超に膨らみ、57万5700人に達している。

キャリアビルダーが昨年実施した調査では、米国企業の人事担当幹部の約55%は、今後5年以内にAIが仕事の
一部に組み込まれるとの見方を示した。


続きはソースで

ロイター
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN

注目記事!



110: 2018/10/11(木) 23:13:45.18 ID:nqbtT/GG0
>>1
ITドカタが使えないのは日米同じだな

214: 2018/10/12(金) 00:05:45.40 ID:LL8u41SP0
>>1を読まずに意見している人は、ぜったいAIの段階でふるい落とされると思う(藁

230: 2018/10/12(金) 00:15:59.76 ID:g1t1kT/40
>>1
AIは正しいのに結果を捻じ曲げると歴史も歪むぞ・・Amazon

272: 2018/10/12(金) 00:53:39.23 ID:39+2rZ4f0
>>1
・・・・女性を登用しないのが自然だってことよね

2: 2018/10/11(木) 22:32:28.31 ID:CRtP3rRu0
AIじゃなくて思想の方が欠陥なんだろ

278: 2018/10/12(金) 00:59:45.72 ID:WQLUl60k0
>>2
企業の合理性より、
女性優遇のポリコレ精神を注入しろって?

ばっかじゃねーのwww

3: 2018/10/11(木) 22:32:28.54 ID:Leb9TZCe0
はい

5: 2018/10/11(木) 22:34:21.47 ID:xcjxOdDw0
そのAI優秀なのでは...

6: 2018/10/11(木) 22:35:17.99 ID:ZpmZl5dh0
>>5
優秀過ぎてもクビになるなんて人間そっくりだなwww

27: 2018/10/11(木) 22:44:36.28 ID:qJjaDfFo0
>>6
中国のAIも共産党は糞って言ってクビになったしな

114: 2018/10/11(木) 23:14:56.23 ID:ZsIwdAW20
>>27
既視感があると思ったらこれか

7: 2018/10/11(木) 22:36:08.14 ID:nQx+PoX90
AIはまだダメだな中国共産党も否定したし

11: 2018/10/11(木) 22:37:49.89 ID:TAZqiwez0
>>7
フフw

163: 2018/10/11(木) 23:39:13.02 ID:DADwM6VH0
>>7
AIは正直だよなあ

9: 2018/10/11(木) 22:37:24.34 ID:9GCQBpu30
いや、それ、統計の正しい解釈結果だからさ、差別関係ないんだけどな。

100: 2018/10/11(木) 23:11:31.71 ID:7uENic0b0
>>9
元のデータに差別が含まれてたら、自動的に差別を再生産するって問題だろう

108: 2018/10/11(木) 23:13:15.71 ID:ck8hNYRp0
>>100
せやね
元データが男性に偏っていたって話だからね

10: 2018/10/11(木) 22:37:46.71 ID:9E8OX3RK0
もうなんか自然法則であってもポリコレに合致しなきゃボコられそうな勢いだなおい

13: 2018/10/11(木) 22:38:13.75 ID:0dTNouoZ0
スパイは加点対象だな

14: 2018/10/11(木) 22:39:47.91 ID:691g7aid0
AIには建前の機能をつける必要があるな

30: 2018/10/11(木) 22:45:42.60 ID:HPIPjB++0
>>14
それも学習すりゃいいんだがエンジニアが嫌うんだわw

15: 2018/10/11(木) 22:40:07.07 ID:+mg+89q90
正しいという欠陥

16: 2018/10/11(木) 22:40:26.02 ID:nQt2MdxT0
都合が悪いと欠陥認定

18: 2018/10/11(木) 22:40:58.79 ID:K85pC/0yO
そら単なるデータの解析すりゃそうなるわ

19: 2018/10/11(木) 22:41:03.39 ID:oUi3y8Fc0
真実を答えたら粛清されたか…。

20: 2018/10/11(木) 22:41:25.25 ID:5nhCQZLX0
空気を読むって高度なことにいきなり挑戦しないと存在を許されないんだから大変だな

21: 2018/10/11(木) 22:42:01.90 ID:8mZFgXNn0
わろた

22: 2018/10/11(木) 22:42:19.91 ID:GfVmEMok0
食わせる学習用のデータが偏ってたんだろ

24: 2018/10/11(木) 22:43:14.20 ID:bnN3Cy270
裸の王様かよ

25: 2018/10/11(木) 22:43:15.61 ID:7NQN2reW0
女の利点は9割容姿だからな
こういうのやらせたら低評価になるのは当たり前

202: 2018/10/11(木) 23:59:29.28 ID:PGLlircI0
>>25
容姿、肉体がなければ
中身は糞てこと?

26: 2018/10/11(木) 22:44:23.65 ID:eDJsyI720
昔ながらの分析やってる感じしかしない
AIって

29: 2018/10/11(木) 22:45:09.05 ID:hYgMJFgj0
事実に基づいているのに、何が欠陥なんだ?

34: 2018/10/11(木) 22:46:32.11 ID:Wt/e8UPl0
>>29
都合が悪い

32: 2018/10/11(木) 22:46:19.43 ID:G8NP8+j90
公平になんて永遠に無理

35: 2018/10/11(木) 22:46:40.42 ID:ZGEIxI6D0
いきなり差別かよ
AIッパリらしいな

36: 2018/10/11(木) 22:46:46.41 ID:2/SIrEMJ0
つまり今までの女性チェス部部長は、アマゾン入社後ろくな働きをしなかったと言うことじゃん。

38: 2018/10/11(木) 22:48:23.32 ID:7foPQzhG0
ちょっと前に学者だかもこんな感じの本当のこと言ってボコボコにされてなかったか

173: 2018/10/11(木) 23:45:18.12 ID:W14XTBYY0
>>38
Googleの人がそれでクビになったね

39: 2018/10/11(木) 22:48:39.71 ID:cEmR4kfb0
女性が主な職種に同様の学習をさせてみて
男性差別が生じるかを検証してから解散するかどうか考えるといいのでは

58: 2018/10/11(木) 22:56:41.14 ID:i2A51rvr0
>>39
看護師とかアパレルとか女性が割と活躍してる業種で検証してみてほしいね

40: 2018/10/11(木) 22:48:43.02 ID:niggjKym0
黒人とゴリラの区別はつくようになったんか?

49: 2018/10/11(木) 22:51:28.66 ID:ZMHGgkQd0
>>40
お前はつくの?

41: 2018/10/11(木) 22:48:51.74 ID:0KR+Ctw90
AIは正直すぎるな

42: 2018/10/11(木) 22:49:48.36 ID:vCw00pTE0
そうやって女性に下駄を履かせようとする行為が既に主観的なんじゃないの?

43: 2018/10/11(木) 22:50:10.68 ID:0bTWd3E80
出る杭は打たれるという奴か

44: 2018/10/11(木) 22:50:46.19 ID:o2gRbZ5r0
AIには嘘も学習させないとな

45: 2018/10/11(木) 22:50:50.37 ID:SFk13W970
そもそも人材選別自体が差別なんだからポリコレをねじ込むのは矛盾でしかない

46: 2018/10/11(木) 22:50:52.93 ID:lKOWvRna0
男の場合、飛び抜けたバカと天才が混ざり合ってて、
女の場合はみんなそこそこ優秀だけど凡庸なんだろ。
これで特に優秀な人材を選ぶとなったら男ばかりになるに決まってる

47: 2018/10/11(木) 22:50:57.29 ID:i5YPv/uX0
数百年後に故事になりそう

引用元: http://hayabusa9.5ch.net/test/read.cgi/news/1539264659





1000: ぶる速がオススメ記事をお伝えします 2017/03/22(水) 16:43:06.23 ID:burusoku
/