1. 程式人生 > >亞馬遜AI被曝性別歧視?人事部門卻在悄悄給女性“開綠燈”

亞馬遜AI被曝性別歧視?人事部門卻在悄悄給女性“開綠燈”

640?wx_fmt=jpeg

矽谷Live / 實地探訪 熱點探祕 / 深度探討


你知道Google每年收到多少求職者的簡歷嗎?據JobVine統計,超過100萬份。


其他大公司也無外乎於此,而這毫無疑問對於HR來講是巨大的負擔。那有沒有可能用AI解決這個問題呢?


在過去幾年中,AI行業發展迅速。據Crunchbase統計,截止2018年,光是在矽谷研究或應用AI的公司就超過1400家。儘管做AI的公司多,目前行業裡的應用場景主要還是集中在教育、醫療、無人駕駛等方面。


作為科技巨頭,Amazon正在嘗試拓展新的應用場景——用AI給簡歷打分,幫HR分擔壓力。然而這項應用卻在最近被爆出一個巨大的問題。


AI偏愛男性應聘者?


Amazon的AI程式通過檢索簡歷中的關鍵詞,評估應聘者的能力以及和申請職位的匹配度,再綜合打分,給HR推薦理想的人選。


640?wx_fmt=jpeg

圖片來自網路,版權屬於作者


但是這個程式在應用一年後,卻被Amazon高層宣佈關停。這是為什麼呢?


原來AI程式在打分時,給男性應聘者的簡歷打分明顯比給女性打分高,也就是說AI更偏愛男性。Amazon的工程師們之後針對這一現象展開調查,發現原來AI程式在分析簡歷時,會識別暗示應聘者性別的關鍵詞,比如“女子學校”、“女子籃球隊”等,通過這些關鍵詞推斷應聘者的性別,並降低女性應聘者簡歷的評分。


但為什麼AI要針對女性呢?大家都是來找工作的,這不是明擺著性別歧視嗎?這個問題的答案,隱藏在AI深度學習的樣本里。


Amazon的工程師經過進一步的調查發現,原來AI程式偏愛男性應聘者,是因為AI深度學習的樣本來自於Amazon公司過去10年內收到的所有簡歷。而這些簡歷中,原本男性申請者就偏多,並且最終錄取的員工中也是男性居多。因此AI在深度學習的過程中形成了一種認知,那就是男性應聘者比女性更優秀。基於這種認知,AI給男性應聘者的簡歷評分更高。


之後Amazon的工程師針對這個現象,修改了AI程式的程式碼和演算法,讓AI程式不再通過檢索關鍵詞來推斷應聘者性別。但這種方法沒有實際解決問題。AI已經通過深度學習形成了“男性應聘者比女性更優秀”的認知,所以即便不檢索關鍵詞,工程師也不能保證AI不會通過其他方法推斷性別。


正因為如此,在AI程式被投入使用一年後,Amazon高層最終宣佈關停專案。


可能的解決方案


雖然Amazon關停了專案,但AI偏愛男性應聘者,是否真的無法通過優化程式解決呢?如果採用不同的樣本,又是否能改善這個問題呢?


為此小探就可能的解決方案,採訪了一位不願透露姓名的業內人士。


聽小探把整個事件徐徐道來之後,這位人士提出了一個方案:首先設定兩套AI程式,在深度學習的過程中,男性和女性的樣本分開學習,然後在評分過程中,先讓AI把簡歷按性別分為兩組,再用針對男性的AI程式給男性打分,用針對女性的給女性打分,這樣就能最大程度保證公平。


小探聽完之後不由得感嘆業內人士的專業性,談笑間便提出了一個具體的解決方案,似乎讓問題迎刃而解。然而,如果問題這麼簡單就能解決,為什麼Amazon的工程師們還拿它毫無辦法,以至於高層最終不得已關停了專案呢?小探懷著將信將疑的態度,又採訪了一位Google的工程師。


果不其然,這位工程師對“分開學習、分開評分“的方法產生了質疑:如果涉及兩個程式,分別深度學習兩個性別的樣本,那麼針對女性的AI程式因為樣本太少,學習不到需要的特性,從而在評分時很可能產生新的問題。


至於通過修改演算法,能否讓AI評分變得公平,這位工程師的答案是:很難。他向小探解釋道,現在深度學習一個很大的問題就是,模型極其難以解釋——當AI做出一個判斷時,工程師很難分析出它是怎麼作出這個判斷的。所以,也許Amazon的AI缺乏“可解釋性”。


“可解釋性”,簡單來說,就是當AI作出一個判斷,工程師能知道是AI神經網路的哪些部分,根據樣本中的哪些線索,得出了那個判斷。而Amazon最終選擇關停專案,很有可能是由於AI缺乏“可解釋性”,造成工程師不知道該修改AI神經網路中的哪些部分,導致問題一直無法被實際解決。因此這位工程師最後給出的論斷是,“工程上來講,想修復這個問題很難”。


不過,並不是所有工程師都對此不看好。小探採訪了一位微軟的工程師,他在電話中自信地表示:技術層面上,一定能實現公平對待男性和女性應聘者。


然而緊接著,他便反問小探:“但你是想反映公平,還是想反映真實?”


小探不禁陷入沉思。難道我們追求的公平——讓男性女性有同樣的機會就職——是不真實的嗎?


AI印證了現狀,HR卻想改變現狀


Amazon的AI偏愛男性應聘者,不僅暴露了Amazon公司內男多女少的問題,還反映了整個科技行業內男女比例失衡的現象。


據路透社統計,Amazon、Facebook、Apple、Google、Microsoft五家科技巨頭的員工中男性佔比分別為60%、64%、68%、69%、74%。而這五家公司中技術類職位男性佔比甚至更高,最高的Microsoft佔比達到81%。


640?wx_fmt=png

各大科技公司員工男女比例

藍色為男性,紅色為女性


因此Amazon的AI並不是針對誰,而只是基於樣本映射出了現實——男多女少,是目前整個科技行業面臨的痛點。


為什麼這是痛點呢?首先,對於體量龐大的科技公司而言,男多女少意味著公司內部人員組成單一。要知道創新是科技公司的命脈,而創新往往是通過不同思維的碰撞產生的。一旦公司人員組成過於單一,思維的碰撞就會減少,導致創新減少,切斷了科技公司的命脈。


其次,過於明顯的男女比例失衡,容易給公司招致“性別歧視”的罵名。因為對於“高大上”的科技行業,公眾往往抱有一種美好的期望,認為在這個行業中一切都應該公平公正,因此一旦有一絲跡象表明了不公平現象的存在,比如男多女少的問題,公眾便會把公司推向社會輿論的風口浪尖,讓公司高層承擔巨大壓力。


出於諸如此類的種種擔憂,科技公司近些年都在嘗試解決男多女少的問題,而其中最簡單粗暴的方法就是多招女員工。在招聘過程中,HR往往會給女性申請者“降低門檻”,比如在評估時酌情提高對她們的綜合打分,或是在一男一女技能水平相當的候選人當中,選擇那個女性申請者。


對此,小探特地瀏覽了許多Reddit上討論招聘過程的帖子,並且詢問了一位當過面試官的朋友,最終得到了非常統一的答案:雖然面試官只給申請者評分,而最終決定權在委員會手裡,但是在同一個面試官給出相同評分的男性和女性申請者中,女性通常會得到委員會的更多考慮。


那麼,為何即使科技公司如此願意招女性,科技行業中男多女少的問題還是一直存在呢?根本原因在於:理工科的女性本來就少。


640?wx_fmt=jpeg

圖片來自網路,版權屬於作者


據美國國家教育統計中心的資料顯示,2015年美國大學計算機專業的畢業生中,女性只佔18%。雖然這不是最新資料,但也足以說明問題——理工科的女性總數就很少,而科技公司中大多數職位都與技術相關,即使公司願意“開綠燈”,仍然很難提高女性在科技公司中的比例。


因此我們不難看出,AI的判斷是科技行業中男多女少的現狀的延續,HR人工的判斷則是渴望改變現狀的體現。然而目前的AI程式,只能通過樣本學習過去的規律,但還無法理解人基於社會現狀產生的某些需求。這或許才是Amazon高層決定關停專案的真實原因。


所謂“公平”就是一半男性一半女性?


“公平“這個話題,太過於辯證;公平與不公平的分界線,也很難定義。


對於目前科技行業內男多女少的現象,採訪中一位女性UI設計師說過一句話,給小探留下了很深的印象。這位設計師說:“男多女少也許是真的,但這不是歧視的產物。”


就像本文之前所說的,造成科技行業中男多女少的根本原因,不是科技公司不願意招女性,而是本來理工科的女性就少,因此難以在整個行業中呈現出“女性扛起半邊天”的景象。


人類社會從古自今,都強調分工協作的重要性;工業時代來臨後,分工協作更是大大提高了社會效率。不管出於任何原因,學習並從事技術相關工作的男性比女性多,是無可爭辯的現實,就像學習並從事營銷、傳媒、藝術等領域工作的女性比男性多一樣。因此,一半男性一半女性並不是真正的公平,因為這不符合社會的現狀。


那麼在這種現實背景下,強行增加科技行業中女性的比例,是否有些矯枉過正呢?在各方面技能相同的情況下,公司為了保證男女比例不失衡,有意選擇女性,是否又是另一種不公平呢?


小探認為,相比起男女人數比例,也許同一個崗位上,男性和女性做同樣多的工作,掙一樣多的工資,這才是真正的公平。


所以,人都還沒搞清楚什麼是公平,就想用機器來達到公平,實屬科技發展得“太著急”的表現。



推薦閱讀

640?wx_fmt=jpeg

區塊鏈報告 腦機介面報告 

矽谷人工智慧 | 斯坦福校長

衛哲 | 姚勁波 | 胡海泉 

垂直種植 | 無人車

王者榮耀 | 返老還童 



640?wx_fmt=jpeg