由於嚴重的性別差異問題,人工智慧存在偏見的風險
人工智慧需要由各種各樣的開發者來創造,以防止產生偏見,但世界經濟論壇(WEF)發現了一個嚴重的性別差異。
一段時間以來,STEM職業中的性別差距一直是個問題,但最終產品往往不太關心它是由什麼性別開發的。人工智慧將無處不在,重要的是它能代表它所服務的物件。
在本週釋出的一份報告中,世界經濟論壇寫道:
“婦女和男子在這一深刻的經濟和社會變革程序中的平等貢獻至關重要。
社會比以往任何時候都更不能失去一半人類的技能、思想和觀點,以實現管理良好的創新和技術所能帶來的更繁榮和以人為中心的未來的希望。”
令人震驚的是,世界經濟論壇的報告發現,不到四分之一的行業職位由女性擔任。從這個角度來看,人工智慧行業的性別差距大約是其他行業人才池的三倍。
世界經濟論壇人工智慧和機器學習主管凱•菲爾斯-巴特菲爾德(Kay Firth-Butterfield)表示:“創造人工智慧的人代表整個人口,這一點絕對至關重要。”
在編碼方面的偏見可能會讓人工智慧在某些社會群體中表現得比其他群體更好,這可能會給他們帶來優勢。這種偏見很少是有意的,但已經在人工智慧的發展中找到了自己的方式。
美國公民自由聯盟(ACLU)最近對亞馬遜的面部識別技術進行了一次測試,發現它錯誤地將那些膚色較深的人貼上了罪犯的標籤。
同樣,NIST和達拉斯德克薩斯大學(University of Texas)的研究人員在2010年進行的一項研究發現,在東亞設計和測試的演算法在識別東亞人方面做得更好,而在西方國家設計的演算法在識別白種人方面更準確。
最近,谷歌在Gmail中釋出了一個預測文字功能,該演算法對使用女性代詞的護士進行了有偏見的假設。
很明顯,解決性別差距比以往任何時候都更加緊迫。