創造良性互動的智慧時代
人工智慧演算法潛在的安全隱患、認知偏見、法律倫理衝突等往往是現實社會缺陷的反映。只有在機器與使用機器的人上兩頭著力,我們才能創造一個人工智慧與人類良性互動的未來。
語音點菜、刷臉買單、無人車送回家……60多年前,當一批年輕的科學家首次提出人工智慧的概念時,或許沒想到它帶來的巨大變化;而今,得益於計算能力的提升、大資料的驅動以及深度學習的突破,人工智慧正加快“進化”,日益改變著我們的生產、生活。
技術是把雙刃劍。應當看到,人工智慧在高歌猛進的同時,對安全、法律倫理等也提出了新挑戰。比如,一些專家擔憂人工智慧可能模糊虛擬世界和物理世界的界限,甚至重塑人類的生存環境和認知形態,並由此衍生出一系列棘手的道德倫理難題。知名物理學家霍金生前就認為,人工智慧的短期影響由控制它的人決定,而長期影響則取決於人工智慧是否完全為人所控制。
從技術發展程序和邏輯看,這些擔憂或許來得早了點。好在我們沒有僅僅停留在爭論上,針對人工智慧潛在的風險,科學家和工程師們防患於未然,從產品設計標準、規範約束等方面提出了一系列試圖控制智慧機器系統的可行性方案。面對智慧演算法不可理解、缺乏透明造成的機器偏見,人們正加強評估人工智慧使用的資料、演算法以及模型,剔除可導致偏見的潛在因素;對於未來強人工智慧環境下,具有準人格的機器如何與人協調相處問題,科學家也試圖探索通過演算法給智慧機器嵌入人類的價值觀和規範,讓它們具有和人類一樣的同情心、責任心、羞恥感等等。我們希望,在對人工智慧程式進行監管的同時,讓人工智慧的演算法遵循“善法”,吸取人類道德規範“善”的一面,從而控制機器的風險。
當然,構建好機器法律倫理體系並不容易。現實中豐富的語言表達,微妙的情感訴求能被機器理解、接受嗎?用量化的指標衡量善、惡等倫理概念可行嗎?還有,誰來決定演算法、設定標準?這些都是我們試圖規範人工智慧發展需要面臨的難題。但給機器嵌入倫理的困難,並不意味著我們只能無所作為。機器學習輸出的判斷和行為,往往取決於它接受的資訊。從這點看,人工智慧本身並無對錯,理想的狀態下,當前基於深度學習的人工智慧演算法應當是中性、客觀、高效的,其潛在的安全隱患、認知偏見、法律倫理衝突等往往是現實社會缺陷的反映,只不過在技術的視野中被放大了。因此,要讓智慧機器變得更完美,除了通過技術手段對演算法進行審查或引導外,更重要的或許是正視、理解並改善現實社會環境。只有在機器與使用機器的人上兩頭著力,我們才能創造一個人工智慧與人類良性互動的未來。
倫理學家說,人工智慧的道德水準將是一面鏡子,它反映的是人類文明的道德高度。人類社會不可能十全十美,未來的機器智慧時代亦然。我們要繼續不懈努力,去創造更好的智慧時代。