亞馬遜廢除招聘分析系統 因為AI會歧視女 - 求職

Table of Contents

※ [本文轉錄自 Reewalker 信箱]

作者: paericsson (pa) 看板: Gossiping
標題: [新聞] 亞馬遜廢除招聘分析系統 因為AI會歧視女
時間: Wed Oct 10 13:12:50 2018

1.媒體來源:
※ 例如蘋果日報、奇摩新聞

自由

2.完整新聞標題:
※ 標題沒有寫出來 ---> 依照板規刪除文章

亞馬遜廢除招聘分析系統 因為AI會歧視女性...

3.完整新聞內文:
※ 社論特稿都不能貼! 違者刪除(政治類水桶3個月),貼廣告也會被刪除喔!

〔即時新聞/綜合報導〕全球電商龍頭亞馬遜公司,原本有一套秘密的招聘分析引擎,近
來亞馬遜卻決定廢除該系統,因為專家們發現負責分析履歷的AI「歧視」女性

據《路透》報導,知情人士透露,亞馬遜秘密團隊自2014年以來,一直在建立招聘程序,
藉此自動化審查求職者的履歷並尋找頂尖人才,該招聘工具分析完求職者後,會給出1到5
星的評分。

知情人士表示,團隊給招聘系統100個履歷,它就會排出前5名,亞馬遜便雇用那些人。但
到了2015年,團隊意識到分析系統並未以性別中立的方式進行評定。

原來,亞馬遜這套招聘工具的AI在進行分析訓練時,觀察了過去10年內提交給亞馬遜的履
歷,其中顯示出了科技行業中男性的主導地位。因此,亞馬遜招聘AI「認為」男性求職者
更可取,對女性求職者進行「處罰」,例如兩間美國女子大學的畢業生都會被降低評級

不願具名的消息人士指出,亞馬遜最後在去年年初解散了該AI團隊,因為高層對這個項目
失去了希望。亞馬遜拒絕評論此事,僅強調公司致力於工作場所的多樣性和平等。

4.完整新聞連結 (或短網址):
※ 當新聞連結過長時,需提供短網址方便網友點擊

http://news.ltn.com.tw/news/world/breakingnews/2576506

5.備註:
※ 一個人一天只能張貼一則新聞,被刪或自刪也算額度內超貼者水桶,請注意


--

All Comments

Belly avatarBelly2018-10-11
AI認證
Yedda avatarYedda2018-10-15
越來越像人類了
Charlie avatarCharlie2018-10-19
#越分析越不對勁
Valerie avatarValerie2018-10-20
搞政治正確?
Candice avatarCandice2018-10-24
AI都能仇女 代表?
Zanna avatarZanna2018-10-28
搞笑,不是應該公司先訂下要什麼人才,然後
Agnes avatarAgnes2018-10-30
AI系統也是人寫的 所以會歧視的不是AI 是人
Lucy avatarLucy2018-11-04
研發團隊進行系統研發,難不成,該團隊是自
已隨便玩的嗎?
Michael avatarMichael2018-11-07
偽娘和變性人不知道怎麼評分
Emily avatarEmily2018-11-11
先定義性別中立
Carolina Franco avatarCarolina Franco2018-11-14
教主寫的程式
Andy avatarAndy2018-11-14
Ai是透過資料學習的 所有資料就是這樣
Faithe avatarFaithe2018-11-17
搞不好是考慮了請假跟離職率
Heather avatarHeather2018-11-18
笑死 就公司需求人才適合男性
Regina avatarRegina2018-11-22
先控告AI團隊再告亞馬遜 賺死了
Andy avatarAndy2018-11-22
Ai越來越聰明了
Kama avatarKama2018-11-22
阿就根據資料得出的結果 剛好女性比較慘而已
Sierra Rose avatarSierra Rose2018-11-24
這又提出一個問題了。是否相信AI的解答
Doris avatarDoris2018-11-26
由過去雇傭的女性所得到的成果來分析 證明
Skylar DavisLinda avatarSkylar DavisLinda2018-12-01
女生的工作成果較差 故給予女性較差的分數
這AI真的很公正客觀 XD
可惜被假掰的人給關閉了 怕被罰錢吧
Anonymous avatarAnonymous2018-12-01
就資料學習而已,資料怎樣大數據怎樣,自然
就怎樣
Caitlin avatarCaitlin2018-12-03
應該會出bug吧 AI:請假要同酬??
AI:你數據給我就是女性假太多
Joe avatarJoe2018-12-05
AI:資料顯示女性就是廢
George avatarGeorge2018-12-07
所以input資料應該取消性別
Tracy avatarTracy2018-12-11
用什麼資料分析 當然拿什麼預測結果
Adele avatarAdele2018-12-12
女性的戰鬥力指數就是低啊
Joseph avatarJoseph2018-12-13
AI也懂
Robert avatarRobert2018-12-14
女性職員的成本高 本來就事實
David avatarDavid2018-12-18
基於這個結果, 我信AI惹...
Annie avatarAnnie2018-12-18
一定是八卦肥宅帶壞的
Joseph avatarJoseph2018-12-21
代表這AI是成功的 居然不用 真傻
Emma avatarEmma2018-12-26
是否加班 是否能外勤
Queena avatarQueena2018-12-26
AI也是由以前的經驗學習的。表示以前...
Tracy avatarTracy2018-12-29
意思就是 從統計上來看 女人較遜
Delia avatarDelia2019-01-02
三小, 對一個非人為操作的說他不客觀
Isla avatarIsla2019-01-06
AI也只是反映數據運算的結果 歧視什麼的政治
化考量沒有量化 沒有數據可參考
Hedy avatarHedy2019-01-07
真的無話可說 XD ai仇女有原因阿
Ida avatarIda2019-01-07
AI應該是學習過程中發現女性評分要給低一點
Hedda avatarHedda2019-01-10
做AI跟做人一樣 不能太誠實
會招來殺身之禍
Doris avatarDoris2019-01-10
遇到板上說的那樣無縫產假2年 想不低
也難啊
Ida avatarIda2019-01-15
AI因為公正不懂的做人
Victoria avatarVictoria2019-01-16
HAHAHAHAHAHA
超酸的
Hardy avatarHardy2019-01-17
因為ai會公正評斷 性別就是有差...
Zora avatarZora2019-01-18
Ai其實很客觀,就是依據統計,這個工
作男性比女性適合而已,為了平等把工
作給不擅長的人根本本末倒置
Una avatarUna2019-01-19
ai不懂政治正確
Hedy avatarHedy2019-01-20
學店評級自然就低 干女校屁事
Kama avatarKama2019-01-21
現況是這樣,要弄入職後的資料再去搞
Agnes avatarAgnes2019-01-24
假如反過來 AI歧視男性呢? 敢打賭絕
Leila avatarLeila2019-01-26
其實現有資料就是男大於女,高階女性主
Emily avatarEmily2019-01-28
對不會廢除還拿來大吹大擂
Rachel avatarRachel2019-01-28
AI一定覺得人類智障,為了一個奇怪
的理由,把不適合的人硬放上位置的
Olivia avatarOlivia2019-01-31
管比男性少的懸殊,用這樣資料餵出來的AI
可以得到性別是顯著相關的結論也很合理ㄚ
Elizabeth avatarElizabeth2019-02-05
天擇變成ai擇,以後搞不好都變成機器人
Connor avatarConnor2019-02-09
AI是聰明的...
Edwina avatarEdwina2019-02-13
AI最大的敵人,女性....
Madame avatarMadame2019-02-14
證明女權最愛的社會科學不是科學的鐵證
Donna avatarDonna2019-02-17
這算是科學證實嗎?
Isabella avatarIsabella2019-02-21
AI:幹資料給我就是這樣啊
Skylar Davis avatarSkylar Davis2019-02-25
得看ai怎麼學習 用哪些數據學習
Audriana avatarAudriana2019-02-26
告訴我們AI再強還是要聽高層的,自動駕駛
解救不了酒駕
Hedda avatarHedda2019-02-26
分析系統裡沒有性別加權的AI是壞AI,懂
?
Rosalind avatarRosalind2019-02-28
取消性別更慘 因為本來就是男性比較
Ina avatarIna2019-03-01
適合 有性別還可以幫女性加權一下
James avatarJames2019-03-02
AI忘記加入政治正確選項
Donna avatarDonna2019-03-04
假平等
Bethany avatarBethany2019-03-06
可憐的AI. 說實話被廢
Aaliyah avatarAaliyah2019-03-07
AI要加入metoo功能
Mia avatarMia2019-03-11
沒標準答案的東西就別去期待AI了
Steve avatarSteve2019-03-13
肝的奉獻度:男>>>女
Ida avatarIda2019-03-15
招募男女比例不到各半就是不中立吧 哈
Harry avatarHarry2019-03-16
AI: 我不想被女生說越想越不對勁
Vanessa avatarVanessa2019-03-18
抓到了 AI仇女
Audriana avatarAudriana2019-03-20
Ai不會考慮人性 懷孕生小孩對公司是
負面 但是對社會是正面
Ida avatarIda2019-03-23
一定是被女電腦欺負過
Aaliyah avatarAaliyah2019-03-23
女拳:這AI想要強姦我
John avatarJohn2019-03-27
AI不懂平權
Andy avatarAndy2019-03-31
ai太誠實啦
Kristin avatarKristin2019-04-04
7樓文組逆 ai的判斷能用於市場上
都是自己學習到一定成績的
基本上跟編碼者的邏輯沒什麼關係
Joe avatarJoe2019-04-06
因為網路上歧視女性的言論很多
Victoria avatarVictoria2019-04-07
甚麼歧視 陳述事實吧
Ivy avatarIvy2019-04-10
女拳:這AI想要強姦我
Gary avatarGary2019-04-13
垃圾進垃圾出的概念
Ivy avatarIvy2019-04-15
不要把ai當成發垃圾問卷畢業的大學生
Jacky avatarJacky2019-04-18
女拳:這AI想要強姦我
Franklin avatarFranklin2019-04-19
AI是對的
Harry avatarHarry2019-04-19
不分析看看為什麼女性會被降等嗎
Christine avatarChristine2019-04-21
這還需要分析嗎 就產出/投資不如男性
Susan avatarSusan2019-04-23
這不就拿過去十年資料分析出來的
Cara avatarCara2019-04-24
乾 ,照實評錯了嗎 ?幫qq
Dora avatarDora2019-04-27
ai認證
Madame avatarMadame2019-05-02
這AI一定常上ptt八卦板
Rosalind avatarRosalind2019-05-02
就餵的資料本身就有偏誤 訓練出來的結
Linda avatarLinda2019-05-03
不敢承認一個真相,男>女
Jake avatarJake2019-05-05
果當然也有偏誤啊 餵了80%都是男性的資
料 類神經網路訓練出來的結果會這樣不
Hedda avatarHedda2019-05-08
意外吧 一堆演算法外行不要丟臉了= =
Una avatarUna2019-05-09
事實上,AI是依據過去的data進行學習...
Victoria avatarVictoria2019-05-13
要內建政治正確的traning了
Andy avatarAndy2019-05-15
女權:這AI有沙文主義 一定是男的
Kristin avatarKristin2019-05-16
AI = 統計 = 客觀事實
Bennie avatarBennie2019-05-19
就算是AI也不能政治不正確
Sierra Rose avatarSierra Rose2019-05-22
笑死
Yuri avatarYuri2019-05-26
你今天問AI甚麼食物最好吃 但是訓練過
Noah avatarNoah2019-05-30
成你塞給AI的資料都是Pizza 你覺得那叫
客觀? 今天訓練資料的Data來自於歷史資
Erin avatarErin2019-06-01
一間公司沒女性其實是很慘的 認真說
Madame avatarMadame2019-06-03
ai:智者無法回答愚者的問題
Emma avatarEmma2019-06-04
AI如果都選男的 真的是滿麻煩
Selena avatarSelena2019-06-07
料 而歷史資料本身就是男性多於女性 這
Jake avatarJake2019-06-11
當然會影響到訓練的結果好嗎...
連這個板上都一堆理盲 那難怪廢核或
Ina avatarIna2019-06-13
葉克摩風向帶得起來了
Aaliyah avatarAaliyah2019-06-17
一堆噁心的傢伙只看立場不問是非的 明
Kyle avatarKyle2019-06-22
明要討論的是ai訓練資料的問題還可以扯
女權543的 今天反過來你塞了一堆女性的
Caitlin avatarCaitlin2019-06-22
資料去以想訓練結果也是一樣噁心 重點
是在於訓練資料本身就有偏誤了好嗎
Daph Bay avatarDaph Bay2019-06-25
這東西不可能只歧視女性 八成連尼哥阿
咪狗一起歧視惹
Charlie avatarCharlie2019-06-27
反過來塞一堆女性的就歧視男生
Dorothy avatarDorothy2019-06-28
這個ai根本就是人類
Annie avatarAnnie2019-07-02
你把AI送回300年前 他也會告訴你黑人天生
就是奴隸
Elma avatarElma2019-07-06
4 所以重點是在該怎麼確保訓練資料不會
Sarah avatarSarah2019-07-07
被性別或甚麼其他因素影響能力判別
Lily avatarLily2019-07-08
表示真憑履歷的話 女生極大部分會輸吧
Dorothy avatarDorothy2019-07-11
這跟上篇律師的說人工閱卷比較主觀,AI
也是(ry)
Zenobia avatarZenobia2019-07-12
AI才真的沒被外貌等影響判斷,人的話就會
Eartha avatarEartha2019-07-14
內文也講了因為科技業歷史資料中男性僱
員資料壓倒性多數啊 所以你訓練演算法
的結果 性別自然被當成一個評比的標準
Anthony avatarAnthony2019-07-16
發現新人都沒有妹紙 往回查後...
Ethan avatarEthan2019-07-21
就像我要建立一個分析美食的AI 結果我
訓練資料都塞pizza進去 訓練出來的結果
pizza一定最高分啊= =
Thomas avatarThomas2019-07-22
白癡 餵啥數據有啥結果 不就這樣= =
Kristin avatarKristin2019-07-27
這表示績效天生就是...wow
Andrew avatarAndrew2019-07-28
本來能力就有差異 這哪算歧視 歐美真心
智障
David avatarDavid2019-07-31
waht
Ethan avatarEthan2019-08-04
真的是被一堆理盲氣到發抖欸幹 八卦版
欸 連這裡基本資訊素養都這麼低 搞屁啊
Kyle avatarKyle2019-08-09
這年頭不能說實話
Emily avatarEmily2019-08-11
真的這麼在意比例 很簡單啊 保障女性50
Jack avatarJack2019-08-13
% 不就好了
Jacky avatarJacky2019-08-14
誠實w
Victoria avatarVictoria2019-08-16
AI沒考慮到政治正確 #越統計越不對勁
Hardy avatarHardy2019-08-18
這公司又不是只有男性 應該檢討為何
會分析女性會比較差吧
Connor avatarConnor2019-08-22
因為訓練資料中男性壓倒性多數啊 演算
法當然會往這個多數去偏向 那不是性別
優劣的問題 而是更之前的階段 樣本就已
經有偏誤了
Carol avatarCarol2019-08-24
實話不能講出來 因為政治不正確
Hamiltion avatarHamiltion2019-08-26
一堆理盲在那邊講屁話 實話你媽
Christine avatarChristine2019-08-30
我記得米國履歷不是沒性別的嗎
還是沒照片什麼的
Leila avatarLeila2019-09-03
AI太聰明 學習人類學全套 直接74
Lily avatarLily2019-09-04
笑死,有人在崩潰,卻沒人要理
Victoria avatarVictoria2019-09-04
但不保證歷史資料沒有性別啊 不然是要
怎麼發現女性會被扣分
Liam avatarLiam2019-09-07
AI也是要人教的 當初進去的資料 或是整個
業界就是有這種偏差 學到的自然也有偏差
Delia avatarDelia2019-09-10
歷史資料建立模型的問題,所以亞馬遜長期招
募有歧視女性XD
Christine avatarChristine2019-09-12
我是真的很崩潰 如果連八卦這種網路使
用者多數的地方 對於ai都沒有相關的資
訊素養 那可以想像整個台灣相關資訊素
養的程度是怎樣了
Emily avatarEmily2019-09-13
也許只是耗電又沒什麼額外效益的關係
Ivy avatarIvy2019-09-17
推樓上 樣本總數有差
Hardy avatarHardy2019-09-20
難怪殺小葉克膜強摘的風向能帶的起來
一堆對於運作機制不了解 但是很樂於馬
上套用自己的立場去評論的理盲
Connor avatarConnor2019-09-21
是D大
Liam avatarLiam2019-09-23
被咪兔害慘 哈哈
Freda avatarFreda2019-09-25
你今天反過來塞一堆女性的資料去訓練
讓ai最後訓練成女性加分男性扣分那也是
一樣的問題啊 就是樣本本身的偏誤影響
到演算法了 在那邊扯啥小政治正確
Christine avatarChristine2019-09-30
你給AI的歷史data是那樣,當然回一樣的結果
Sierra Rose avatarSierra Rose2019-10-03
尤其是如果花一堆功夫又堅持結果非五五不可
Isabella avatarIsabella2019-10-07
阿不如就不用分析了 一開始定五五就好了
Rosalind avatarRosalind2019-10-09
建議D大回文好了
Agatha avatarAgatha2019-10-10
推d大,八卦就這個水準啊
而且ai會歧視大概半年前就有新聞了吧www
Zora avatarZora2019-10-14
一定沒輸入顏值。
Daniel avatarDaniel2019-10-17
好了啦擁女主義者
Edward Lewis avatarEdward Lewis2019-10-21
問題不在要五五 而是ai的設計上性別不
James avatarJames2019-10-22
該影響到能力評估 但是依報導內容來看
應該是判別演算法後發現評分會「懲罰」
女性 這應該可以解讀成性別變成評比的
指標了
Franklin avatarFranklin2019-10-25
這到底跟女權有什麼關係...你做研究不
用確保資料沒有偏誤嗎
Harry avatarHarry2019-10-27
推deer大!
Selena avatarSelena2019-10-29
講白了這就跟喜憨島那些吸獨仔一樣 立
場可以凌駕於科學事實 因為中國罪該萬
Vanessa avatarVanessa2019-11-02
死 所以教中國用葉克膜一定跟強摘有關
;因為女權正夯 所以這ai一定是被政治
正確打壓
Liam avatarLiam2019-11-03
AI:我中立學習得來的結論被人類的偏見黑
Liam avatarLiam2019-11-07
我還滿好奇d是該系統的設計者嗎?不然
怎麼確定是因為資料量的差異造成這個
結果?七成資料都是男性所以偏袒男性
是怎麼推論出來的?假設資料是七成小
學生三成大學生,系統也是會偏袒小學
生嗎?
Christine avatarChristine2019-11-11
好好的假日要被一堆白癡理盲氣到發抖欸
Zanna avatarZanna2019-11-16
幹 我前面都說了你今天反過來餵一堆女
性的資料導致ai變成「懲罰」男性 那也
一樣是歷史資料的結構影響到演算法 到
底跟政治正確有三小關係
Mary avatarMary2019-11-17
d大講得很正確阿 為啥要扯到設計者...
Quanna avatarQuanna2019-11-19
d大別生氣 PTT素質越來越低落 我已看淡惹Q
Sarah avatarSarah2019-11-20
fengchierh 答案是會 我自己是有參與一
些語意分析的經驗 所謂訓練結果其實不
代表真的優劣 那只是演算法解讀資料的
「傾向」
Thomas avatarThomas2019-11-25
這篇新聞也沒講太多細節 因為公司拒絕評論
Thomas avatarThomas2019-11-26
如果樣本有問題那就是打亞馬遜自己的臉
Audriana avatarAudriana2019-11-27
這家公司過去不可能被注意這點 但還是被電腦
有特定傾向
Sandy avatarSandy2019-12-02
也是啦 但是內文提到歷史資料的部分 至
少以現行多數的演算法來說 確實會有你
餵了什麼資料使ai出現什麼樣的傾向 像
之前不就有個鄉民機器人 就是你把鄉民
留言塞給ai訓練 最後他聊天的口味就跟
鄉民一樣
Steve avatarSteve2019-12-04
那像你講的,調整比例就好幹嘛要廢除系統
Franklin avatarFranklin2019-12-06
Ai團隊的解散我認為不一定跟這件事有關
你其實留意近期ai的發展 連deepmind的
專案都慢了下來
Jessica avatarJessica2019-12-07
這就跟之前微軟的AI被染黃講賭色等等一樣
James avatarJames2019-12-10
因為網路上往往分身跟強勢就是肥宅
靠著帳號數跟推留言強勢 會完全失真
Suhail Hany avatarSuhail Hany2019-12-13
AI用歷史分析,歷史就已經人為偏頗
,所以問題還是人類啊
Emma avatarEmma2019-12-14
現在PTT就一堆學店生 所以才選出同樣
水準的人當版主
Enid avatarEnid2019-12-17
就是以前都歧視女性辣
Andy avatarAndy2019-12-20
Ai其實不會把性別當作直接判斷的依據
Anthony avatarAnthony2019-12-22
內建XXX保障名額啊
Elizabeth avatarElizabeth2019-12-24
這代表Ai是透過分析其他資料後,最終
的數據現實男性更符合Ai的篩選。
Jacky avatarJacky2019-12-26
Ai不知道那個叫「性別」啊 他只是從資
料裡推斷出有這種傾向
Candice avatarCandice2019-12-29
那當你資料裡男性居多 最後判斷當然就
會出現這種「傾向」
Margaret avatarMargaret2020-01-01
不能不要放性別資料進去就好了嗎
剛沒看到上幾樓都解說
Kristin avatarKristin2020-01-03
招募量 男>>女 =歧視,我猜是這樣
Lydia avatarLydia2020-01-05
AI其實是八掛肥宅ㄅ
Callum avatarCallum2020-01-08
這AI真的不錯
Aaliyah avatarAaliyah2020-01-12
我的女主管都說 她不想用女生 麻煩一堆
Kama avatarKama2020-01-12
不是所有工作都是男女一樣好用 平權 呵
Edward Lewis avatarEdward Lewis2020-01-14
"顯示出了科技行業中男性的主導地位"
Caroline avatarCaroline2020-01-15
單憑這句無法判定是人數還是表現差異
Sierra Rose avatarSierra Rose2020-01-16
抓到了 AI仇女
Olive avatarOlive2020-01-20
這ai太誠實了?
Poppy avatarPoppy2020-01-22
AI依照過去的資料給建議 如果沒有修改的
話就會這樣
Jessica avatarJessica2020-01-27
哇靠AI會歧視?
Mason avatarMason2020-01-30
AI太誠實了
Cara avatarCara2020-02-02
你資料給我什麼 你不修改加權當然就會變
成這樣 啊如果真的修改加權是不是也可以
說你為了公司立場圖利單一性別
Dinah avatarDinah2020-02-03
我覺得這裡面最雖小的就是被解散的那個
團隊 如果他們真的沒有修改過原始資料的
Edith avatarEdith2020-02-06
把性別參數拿掉不就好了...
Erin avatarErin2020-02-10
某D是團隊的人?怎麼知道資料有誤?腦補嗎
Necoo avatarNecoo2020-02-11
輸入現況是歧視的數據進去 當然得到
歧視的結果
Franklin avatarFranklin2020-02-15
政治不正確
Liam avatarLiam2020-02-17
資料偏誤不叫作有誤好嗎 我前面也舉了
鄉民聊天機器人當例子了 你塞給ai的訓
練資料都是鄉民留言 最後ai對話的模式
就是鄉民風格
Audriana avatarAudriana2020-02-18
某D不是設計者自己腦補訓練資料有bias
,你當那些ai 科學家都智障不曉得要把b
ias降到最低?
Sandy avatarSandy2020-02-21
你先行業界就是男性居多 那資料判讀自
然會出現這樣的傾向 一堆人真的把ai當
人類 但是ai不是真人好嗎 根本不會知道
性別是什麼
Connor avatarConnor2020-02-23
某D自己只有拿現成model訓練的水準也以
Jessica avatarJessica2020-02-25
為其他科學家也是,資料都不會經過處理
去除人為bias
William avatarWilliam2020-02-29
仇女AI
Hardy avatarHardy2020-03-01
imaxpayne 那總比把一切怪罪到政治不正
確好吧 我從頭到尾都是在嘴那些不願意
接受資料會影響到演算法的人好嗎 馬的
一堆理盲
Thomas avatarThomas2020-03-04
如果資料有誤就是亞馬遜自己就政治不正確了
而且還是不自覺的 畢竟這家公司過去不可能
沒有注意這方面的問題
Rae avatarRae2020-03-04
堂堂亞馬遜ai科學家被某d講成不會處理
訓練資料才是讓我氣到發抖
Sarah avatarSarah2020-03-06
死不接受Al客觀分析的結果就跳針歧視 女權
不意外
James avatarJames2020-03-09
Ai太接近人類了
Callum avatarCallum2020-03-12
ai會給長得漂亮的人高分嗎XD
Carolina Franco avatarCarolina Franco2020-03-13
我前面就講了 那些咖水準就跟喜憨島的
吸獨仔沒什麼兩樣 立場凌駕於知識 就算
Oliver avatarOliver2020-03-15
不知道葉克膜怎麼運作,幫助中國人就是
罪該萬死;就算不知道訓練資料可能會影
響到ai,能嘴政治正確就是雙爽 一堆廢
物理盲 還在那邊腦補我是女權人士 這到
底幹女權屁事
Barb Cronin avatarBarb Cronin2020-03-15
連無機物都認證了
Eden avatarEden2020-03-15
某D息怒,八卦就是這樣,你我真的要認
真討論ai不會在八卦版
Victoria avatarVictoria2020-03-20
imaxpayne 我可沒批評亞馬遜好嗎 我批
判的是那些留智障發言的理盲
Rachel avatarRachel2020-03-25
仔細看一下 不就這AI學以前人的判定
以前的人就是有歧視
Hamiltion avatarHamiltion2020-03-29
招聘 程序 招募 流程
Enid avatarEnid2020-04-01
Training data有偏誤train出來當然有
偏誤啊
Damian avatarDamian2020-04-06
女性能力沒有比較差 但是懷孕結婚生理
問題 穩定性無法改善
Lily avatarLily2020-04-10
又來,又一個訓練資料偏誤,媽的台灣ai
人水準堪慮
Queena avatarQueena2020-04-12
從以前基測就看的出來了,同樣學校為求男
女各半,男生pr硬是比女生高一點,就說明
Skylar Davis avatarSkylar Davis2020-04-13
事實了
Charlie avatarCharlie2020-04-16
越來越像人類了XD
Kumar avatarKumar2020-04-20
如果只因為「性別」這項參數影響結果
那根本沒必要小題大作解散團隊
Agatha avatarAgatha2020-04-23
樓下是AI的ptt帳號,正在逛八卦版學習人性
Ula avatarUla2020-04-23
XDDDD
Linda avatarLinda2020-04-26
AI認證XD
Genevieve avatarGenevieve2020-04-30
應該是合理數據分析出來的結果
Skylar Davis avatarSkylar Davis2020-05-02
笑死 人一腦殘 做事都低能
Tristan Cohan avatarTristan Cohan2020-05-06
再出一隻ai專門吃女權資料就抗衡了
Victoria avatarVictoria2020-05-10
解散團隊的原因很簡單啊 因為這個結果是ai
團隊束手無策的 ai團隊就是用來做ai的又不
是拿來解決社會現象的
David avatarDavid2020-05-12
重點是蒐集來的數據本身帶有那些傾向 無解
Daniel avatarDaniel2020-05-15
餵給ai的數據就是這樣啊..
Daph Bay avatarDaph Bay2020-05-17
這AI很人類
James avatarJames2020-05-20
邏輯正確VS政治正確
Michael avatarMichael2020-05-21
花了10年,才發現自家AI的偏差思想
也不想想人生是有幾年?
Regina avatarRegina2020-05-24
選奶大的
Linda avatarLinda2020-05-26
殺豬ai
John avatarJohn2020-05-30
把性別參數拿掉就好了阿 話說履歷
本身資訊就不正確了 AI是能分析出啥
Irma avatarIrma2020-05-31
AI最後還是為了女性被滅掉了,所以還是女
Mia avatarMia2020-06-02
ai吃的數據有性別嗎
Freda avatarFreda2020-06-02
不能說的秘密:人類歷史的改變確實男性多
Emma avatarEmma2020-06-07
女性站上歷史舞台本來大多在近百年而已
過去千年來女性在歷史的危害 東西方一致
而科技(硬體)、藝術(軟性)男性確實改變
Caitlin avatarCaitlin2020-06-11
這沒什磨好爭的 AI的數據庫一定有此資料
Blanche avatarBlanche2020-06-13
垃圾進垃圾出 你給他的資料是跟人類學的
自然出來就是模仿人類的判斷
Charlie avatarCharlie2020-06-17
連AI都忍不住......
Annie avatarAnnie2020-06-18
AI訓練資料都人類餵的啊 一堆87推文
Emma avatarEmma2020-06-18
XD
Olive avatarOlive2020-06-21
抓到了,電腦有歧視
Frederica avatarFrederica2020-06-22
好啦 那位某dog我只是想當個鄉民講
幹話 不過你那句實話你媽我就不爽了
我自己也做過深度學習 資料前處理
Ivy avatarIvy2020-06-22
模型建立 訓練資料等我也是略懂 這
很顯然是資料選取有問題所造成的偏
差 不是你懂就要氣成這樣
Leila avatarLeila2020-06-26
女的真的不適合來資訊業..破腦又愛情緒
Isla avatarIsla2020-06-29
還不都是從人類的劣根性學來的
Ida avatarIda2020-07-02
囧…騙大家不會寫程式嗎………
Erin avatarErin2020-07-04
抓了
Skylar DavisLinda avatarSkylar DavisLinda2020-07-07
中肯阿
Valerie avatarValerie2020-07-10
給錯誤資料訓練出錯誤判斷,正常反應
Elma avatarElma2020-07-13
把性別這項資料拿掉不就好了…
Joe avatarJoe2020-07-15
我們以後改面試 只選正妹
Heather avatarHeather2020-07-20
去當老闆就知道 女的鳥毛一堆 動不動就
Hardy avatarHardy2020-07-21
請一堆假 簡單來講對女性工作只是要個
頭銜 賺的錢也是拿來化妝和出國去玩
Margaret avatarMargaret2020-07-22
AI也知道母豬誤國的道理
Lucy avatarLucy2020-07-27
現實上女人很多問題,應該要把生殖功
能評估加入,年輕女性加權,超過生殖
年齡老女人扣分
Jessica avatarJessica2020-07-30
就不要在履歷上打出性別和性別資訊
Ethan avatarEthan2020-07-30
哇 現在AI已經發展成這樣了喔
Rae avatarRae2020-08-02
沉默於ptt的ai
Anthony avatarAnthony2020-08-03
沉迷於ptt的ai
Edith avatarEdith2020-08-03
事實上 現在理組就是男大於女 女生要加
權才是歧視吧 ai就事實分析才是公正
幾個強女人不能概括其他能力低弱的女人
Tom avatarTom2020-08-06
女權真棒,但也不是全部女生都很差
Anthony avatarAnthony2020-08-11
Ai 是學人的,所以不用Ai還是歧視啊
Edward Lewis avatarEdward Lewis2020-08-14
一開始輸入值不要有性別不就好了..
Lucy avatarLucy2020-08-18
大家自己在職場上的觀察不用多說了吧
Belly avatarBelly2020-08-21
輸入一個不可以當條件的參數是在做什麼..
Valerie avatarValerie2020-08-22
男性沒有生理假產假,比較能接受加班到半夜或獨自出差
到開發中國家,硬要男女錄取一樣多只是齊頭式平等
Franklin avatarFranklin2020-08-26
正確的AI
Anthony avatarAnthony2020-08-30
真AI
Una avatarUna2020-09-01
過去收集的都是帶有偏見的data 當然會學歪阿
Catherine avatarCatherine2020-09-03
好奇AI團隊為什麼無法解決這問題,就算是imbalance dat
a,也可以做調整,不然就是修改loss function,再不然
,最後predict結果,再去篩一半男一半女,或是分兩個mo
del,男女用不同model
Elizabeth avatarElizabeth2020-09-04
亞馬遜傻了嗎?公司就是需要男性啊
Jake avatarJake2020-09-06
AI:幹 我做數據分析 幾十年的數據結果就是這樣
Rosalind avatarRosalind2020-09-08
男女用不同model不怕女權團體抗議?
Delia avatarDelia2020-09-10
AI:結果現在說我仇女 那過去的數據是什麼
Hedy avatarHedy2020-09-14
這也可以說整個體制對女性仍是不友善,存在偏見
Damian avatarDamian2020-09-18
看國內新聞智商會下降,更何況一堆人連國內新聞都看不懂
...隱含意思就是以“近10年錄取人數”來看,亞馬遜錄取
的女性員工少的可憐,所以資料餵給AI,AI自然把性別=女
性的權重調低。而去看reuter的新聞,裡面還寫到只要履歷
內提到“women' s”,AI就扣你權重...
Megan avatarMegan2020-09-22
依照亞馬遜那可能的生產線情形,餵出來的結果不意外
Charlotte avatarCharlotte2020-09-25
AI偏見(重現人類偏見)的新聞不曾少過,什麼黑人多罪犯,
或護士就女性之類的,這新聞不過滄海一粟
Quintina avatarQuintina2020-09-25
搞不好統計結果就是這所謂"偏見",不看數據就說人偏見這....
Donna avatarDonna2020-09-28
不知道這算不算偏見
Tom avatarTom2020-10-01
在說廢話 理工科系男多於女 工程師自然女少
不過台灣中文系也可以當工程師應該是例外
Liam avatarLiam2020-10-04
不合理 feature 不填性別就能解決的事情
Bennie avatarBennie2020-10-09
新聞應該寫錯了
Hamiltion avatarHamiltion2020-10-11
AI認證
Tom avatarTom2020-10-12
Machine learning的無解課題啊lol
Todd Johnson avatarTodd Johnson2020-10-14
當兵 當兵不能說實話的
Rosalind avatarRosalind2020-10-19
輸入怎樣的資料 就會輸出怎樣的結果
Jack avatarJack2020-10-20
就統計數據自然產生的結果 以後AI也要學會政治正確
Frederic avatarFrederic2020-10-24
不然會變成AI騎士
Frederic avatarFrederic2020-10-28
仇女
Quintina avatarQuintina2020-11-01
AI認證的
Isabella avatarIsabella2020-11-01
專業AI
Ina avatarIna2020-11-02
扯資料男>>女train起來會有偏差的顯然才是不會train。如果
Hamiltion avatarHamiltion2020-11-06
這堆女性都是表現前20%即使資料少,AI分析結果也會是女性
優於男性
Irma avatarIrma2020-11-06
資料不對稱的解決方法很多好嗎,只要分佈合理就沒問題
Madame avatarMadame2020-11-07
問題在取樣資料庫的偏異數據
Leila avatarLeila2020-11-08
就一間公司發現他們的AI可能會給女性較低的分數,然後
有人自己去推測那個AI是怎麼寫的,還罵其他人白痴,到
底是...?
Isabella avatarIsabella2020-11-08
寫AI的忘記加入現實模組[(長相+胸部)>(經歷+實力)]
Gary avatarGary2020-11-11
網友說資訊不對稱的解決方法很多,說啥女性如果表現前20
%,就算人少,被AI投票也會拿高分!這種人是不知道個人
能力(表現)是常態分佈的嗎,在這種狀況下,人少就是劣勢
...
Candice avatarCandice2020-11-15
就算拿掉性別,男女還是有很多不一樣,ex.社團活動、科
系、興趣等
Aaliyah avatarAaliyah2020-11-19
還以為想說什麼,結果扯一堆跟target無關的... xD
Rae avatarRae2020-11-19
女性本身表現普通就差男性一截啊
Jacob avatarJacob2020-11-20
那是features好嗎,最好和target無關啦
Odelette avatarOdelette2020-11-23
是feature就會拿去當input做normalize啊,那不就是說這分
析資料已經考慮你原本說不考慮的東西了嗎?
William avatarWilliam2020-11-26
資料數量不對稱跟model input根本兩件事 = =,還是你覺得A
mazon資料「分佈」會不夠豐富? 數量問題能解決,資料的分
佈問題才會影響結果
Faithe avatarFaithe2020-11-30
我是覺得input的資料沒有性別 而ai跟據data train出
來選有該技能的人多是男性 新聞導因為果 deer被新聞
誤導了吧
Genevieve avatarGenevieve2020-12-02
機器學習 乃資料之統計 歸納之結果 由此可知
Gary avatarGary2020-12-05
推文很好笑欸 亞馬遜工程不會解data 偏誤還3小的問題
嗎 你們想的到的他們會想不到嗎
Hardy avatarHardy2020-12-09
啪啪啪啪 打臉女權廢物
Aaliyah avatarAaliyah2020-12-09
不愧是AI,像人類
Edward Lewis avatarEdward Lewis2020-12-12
光是能不能出差,就卡死多數女性,就算是國外多數還
是女性在照顧孩子
Agnes avatarAgnes2020-12-17
這系統正確分析啊
Anonymous avatarAnonymous2020-12-20
我以為AI取代人類的日子還很久...