AI犯錯不可怕 反躬自省糾正它
“人工智慧也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導了幾百年男女平權的西方社會,性別歧視問題依然如此嚴峻。”
最近,亞馬遜招聘軟體被爆出具有“重男輕女”的傾向,給女性求職者打低分。這一時重新整理了人們對人工智慧更加客觀科學的看法。按照亞馬遜研究團隊最初的設想,給招聘軟體輸入100份簡歷,它會吐出前5名,然後公司就可優先僱用他們,這將大大緩解人力資源部門的壓力,結果卻事與願違。
現在不少大公司或許沒有亞馬遜這般“一攬子”解決選才問題的雄心,但在招聘過程中,通過人工智慧來篩選簡歷、推薦崗位,卻是習以為常的事。在許多招聘者看來,人工智慧可以減少招聘人員主觀意見的影響。但亞馬遜的失敗案例,為越來越多正在尋求自動化招聘流程的大型公司提供了一個教訓。同時,也促使人們反思技術倫理層面的演算法公平問題。顯然,在亞馬遜的案例中,人工智慧不僅繼承了人類社會的偏見,而且把這種偏見進行了“提純”,使它更加“精準”而“直接”。
更關鍵的是,人類的偏見經過演算法“洗地”之後,又披上了貌似客觀公正的“科學技術”的外衣。實際上,在有偏見的資料基礎上訓練出來的系統,也必然是有偏見的。比如,此前就爆出過微軟的聊天機器人Tay,在與網友的廝混中很快就學了滿嘴髒話,以及種族主義的極端言論,在推特上咒罵女權主義者和猶太人。這提醒我們注意,演算法處理的資料是具有人類社會特點的,發展人工智慧也好,運用演算法也罷,必須目中有“人”,也就是要充分考慮到作為人工智慧開發者的人類的侷限性,以及這種侷限性在人工智慧中的“遺傳”。
有人說,孩子是父母的鏡子。人工智慧也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導了幾百年男女平權的西方社會,性別歧視問題依然如此嚴峻。
人工智慧不可能只在脫離現實人類語境的真空中使用,否則,人工智慧也就失去了它的意義。而在可預計的將來,把人類自身推向完美也不過是美好的夢想。那麼,如何克服人工智慧自我學習中的這些問題,讓不完美的人類創造出接近完美的人工智慧,就成為必須攻克的重要課題。
其實,以不完美創造完美,正是人類這個物種高明的地方。這一切的實現,不是靠反智的玄想,而是靠不斷地打補丁和修復,在科技進步中克服科技前行產生的漏洞。2017年曾有報道披露,在Google Image上搜索“doctor”,獲得的結果中大部分都是白人男性。這實際上反映了醫生總是與男性相連,護士總是與女性相連的社會現實。後來,通過修改演算法,基本解決了這一問題。