中國工程院院士方濱興:內生安全問題可能成為人工智慧“死穴”
從自動駕駛到智慧家居,近兩年,人工智慧技術和應用發展迅速,科幻電影中曾經描繪的“人機共存”時代,似乎離人類越來越近。然而,人工智慧足夠安全嗎?4月20日,在2019西湖論劍·網路安全大會上,中國工程院院士倪光南、鄔江興、方濱興和楊小牛,表達了他們對人工智慧潛在風險的思考和隱憂。
中國工程院院士共話網路安全。
25年前的今年,中國全功能接入國際網際網路,就此拉開中國網際網路的發展序幕,全社會的經濟、文化、生活方式迎來深刻變革。
中國工程院院士鄔江興仍然記得當年的場景。他說,大家感到“歡新鼓舞”,各行各業都在倡導“網際網路+”。但在發展伊始,網路安全問題沒有得到足夠重視,導致了現在的很多遺留問題。
2014年,中共中央總書記習近平在中央網路安全和資訊化領導小組第一次會議上強調,網路安全和資訊化是一體之兩翼、驅動之雙輪,必須統一謀劃、統一部署、統一推進、統一實施。做好網路安全和資訊化工作,要處理好安全和發展的關係,做到協調一致、齊頭並進,以安全保發展、以發展促安全,努力建久安之勢、成長治之業。
鄔江興深以為然。但他也坦言,同步安全和發展,對於全人類而言都是挑戰。如今,人工智慧應用正像網際網路一樣進入日常生活,各行各業須及早考慮人工智慧的安全問題,否則就會重走當年的老路。“不管是什麼問題都會有副作用,必須在發展的初期來解決。”他說。
中國工程院院士楊小牛,也有類似擔憂:“人工智慧會不會又像網際網路一樣,剛開始不考慮它自身的安全,最後發現存在各種各樣的問題,面臨相當大的風險?”他認為,將來,如何讓演算法更加安全、可靠,是一個突出問題。
中國工程院院士方濱興提出,人工智慧的內生安全問題,可能成為其“死穴”。例如,一個被貼上幾張小廣告的停車標誌牌,人看到標誌牌會覺得毫無差別,但演算法識別就會出現錯誤。
方濱興介紹,這樣的錯誤,與人工智慧的內生原理有關。人工智慧靠大量的資料和神經網路學習,人能夠看到人工智慧的處理結果,但神經網路中還有很多人看不到的隱含層。因此,幾個小廣告,甚至是畫素點的改變,都會導致人工智慧處理錯誤。
“現在要關注網路安全的新挑戰”,中國工程院院士倪光南說,新技術帶來了許多傳統安全領域沒有的新問題、新現象,必須予以重視。以自動駕駛汽車為例,如果黑客通過網路攻擊獲得了控制權,自動駕駛汽車就會變得非常危險。
採寫:南都記者馮群星 蔣琳