為防人工智慧成“人工智障” 美軍方擬向AI傳授基本常識
即使最好的AI程式也會犯愚蠢的錯誤。美國國防高階研究計劃局(DARPA)正在開展一場競賽,以彌補該領域最明顯的缺陷——缺乏常識。
隨著人工智慧(AI)越來越多地被用於危急情況,例如駕駛自動汽車、進行醫療診斷等,人們需要從情報資訊中得出生死攸關的結論,且不會再被看作笑料。
科技公司忙於商業化機器學習技術,雖然強大,但基礎常識有限。相比之下,人類嬰兒很快會形成對世界的直觀理解,這是他們智力發展的基礎。
例如,深度學習可以識別語音中的單詞或影象中的物件,通常需要令人難以置信的準確性。但該方法通常依賴於將大量標記資料(原始音訊訊號或影象中的畫素)輸送到大型神經網路中。系統可以學會經過挑選的重要模式,但它容易在更廣闊的常識世界一塌糊塗。
缺乏常識的問題仍可能最終導致災難事件。DARPA新機器常識計劃專案經理戴夫·甘寧釋出宣告說:“常識缺乏可能是弱人工智慧與強人工智慧之間最重要的障礙。”
然而,解決這一問題並不輕鬆。以前幫助機器瞭解世界的嘗試,都集中在手工構建大型知識資料庫上。這是一項笨拙且基本上永無止境的任務。最著名的要數開展了數十年的Cyc資料庫。
現在,DARPA的新機器常識(MCS)計劃將舉辦一場競賽,要求AI演算法理解如下問題:兩種相同的植物放在同樣型別和數量的土壤中,澆灌同樣多的水,一個靠近窗戶,一個放在黑暗房間中。靠近窗戶的植物將產生更多的(A)氧氣(B)二氧化碳(C)水。計算機程式需要對光合作用有一定了解,才能給出答案。
“常識是人工智慧領域的‘暗物質’。”美國著名非營利組織艾倫研究所執行長奧倫·艾奇奧尼說,這類研究試圖探索人工智慧技術的侷限性。這些基準測試將專注於語義理解,未來不斷提供這種衡量常識理解進展的問題是至關重要的。(記者 房琳琳)
總編輯圈點
沒有常識,讓人工智慧在很多時候表現得如同“人工智障”。它們能做大資料分析,能在各種複雜局面中運籌帷幄,但碰上連人類5歲小孩都能理解的情境時,它們卻會茫然不知所措。“盒子裡的牛奶滿了嗎?”“怎麼拿雞蛋不會碎”……這些小問題,對人工智慧來說都是大難題。業界也認為,如果所有問題都要靠“投喂”大量資料來訓練解決,通用人工智慧實現起來實在太難。不知美方打算如何讓人工智慧擁有常識,如果找到了方法,那可能真的有了讓人工智慧成長的“金手指”。

責任編輯:陳近梅