李飛飛PK赫拉利:長盛不衰的“AI威脅論”到底有何魅力?
圖片來源@視覺中國
文 | 腦極體
四月份的大佬們似乎都有點暴躁。自動駕駛那邊撕的熱鬧,人工智慧也沒閒著。
在4月22日,斯坦福大學舉辦的一場“未來AI”主題活動中,AI圈“女神”、斯坦福“以人為本”AI研究院領導者李飛飛,就和暢銷書《人類簡史》《未來簡史》作家尤瓦爾·赫拉利,就人工智慧展開了一場“論戰”。
場面很火爆,咖位很耀眼,2000人的演講廳是人山人海,據到場的同學說,都開始“賣站票”了。看到人工智慧這麼受歡迎,真是我心甚慰。
但對談的內容,卻有點讓人想打瞌睡。還是十幾年前老掉牙的話題:
1.人工智慧能力太強,威脅人類大腦;
2.神經演算法不可解釋,可控性太差;
3.AI將顛覆固有模式,帶來一系列社會問題。
不是,早在2016年阿爾法狗大戰李世石的時候,“AI威脅論”不就被媒體用誇張的標題和內容來渲染,又被科學家和產業界人士集體闢謠了麼?9012了,興沖沖地跑過來,就讓我聽這個?好像總有一種期待沒有被滿足的感覺。
不妨來聊聊這個話題:關於人工智慧,哲學家和科學家為什麼總在“打嘴仗”?
AI威脅論:換個“新瓶”依然很有市場的“陳年窖藏”
認真地說,這場關於人工智慧的爭論還是值得一聽的。畢竟兩位大咖作為產業界和哲學界的代表,都有著各自深厚的功底和遠見卓識。
尤瓦爾·赫拉利的《未來簡史》,就以巨集大的視角審視了人類未來的終極命運;曾任斯坦福人工智慧實驗室和計算機視覺實驗室負責人、谷歌雲 AI 負責人的李飛飛,對AI學術進展和產業落地的瞭解也是得到公認的。
那麼,兩位“業界代表”華山論劍,都碰撞出了哪些火花呢?“課代表”已經幫大家畫好了重點:
第一回合:AI與生物科技、大資料結合,會不會威脅人類大腦安全?
赫拉利認為,現在的人工智慧經過大資料的加持,已經能夠比單個人腦做出更好的決策,甚至比人類自己還了解自己。演算法能夠準確地知道人類對什麼感興趣、想買什麼、適合怎樣的工作、如何投資理財,還能幫助人類“找物件”。
加上腦科學和生物科技的助攻,強大的人工智慧演算法可以從人類大腦中收集資料,那麼“黑入人類大腦”,自然也就是一件技術門檻很低的事情了,提防這種隱私安全和倫理風險,很合理。
而李飛飛則以更積極的視角來看待這件事。首先,AI演算法只是對人腦神經網路的模擬,人類連腦機制都沒有搞清楚的前提下,AI演算法也不可比達到人腦的能力;而且,AI與生物科技的融合,已經在新葯開發、醫療診斷等領域發揮價值,目前來看,技術更多的是在造福人類,而非相反;更關鍵的是,產業界並沒有漠視倫理和隱私問題,相反,很多AI企業早已將隱私保護作為發展AI的前提條件,也將安全保障的軟硬體技術解決方案提上了日程。
順便打了個廣告,指出斯坦福的“以人為本”AI研究院就是希望通過將社會學、心理學、哲學等多種人類學科與AI技術融合在一起,更好地應對未來的倫理挑戰。
第二回合:AI能學到“愛”的能力並與人類相愛嗎?
這個問題簡直是母胎solo人士的噩耗啊,機器都要來和人搶物件了?
赫拉利認為這是很可能的。從生理學的角度,愛情的產生與體內的生物化學反應、荷爾蒙等激素變化息息相關進而影響到情緒、心跳、語言動作等一系列表徵。 如果AI能夠產生意識,自然也就能夠模擬出類似的“反射”,也就是我們說的,識別和表達“愛”。結合前面“AI可以黑入大腦”的假設,那麼未來豈不是連“愛情”都是由機器操控了。
李飛飛指出了這一擔憂成立的兩個現實前提:一是人工智慧已經強大到可以預測人類愛和意識的程度;二是人工智慧技術凌駕於其他技術至上,成為一家獨大、統領一切的存在。顯然,從AI六十多年三起三落的發展史來看,這種預期真的是……滅霸都不敢這麼想。
第三回合:AI會不會出賣主人?
我們知道,現在的AI神經網路並不透明,連研究人員有時候都不知道演算法是如何工作並得出結果的,這被稱之為AI的黑箱性,也叫不可解釋性。
既然AI能夠在不告訴主人的前提下收集資訊,那麼偷偷摸摸跟廣告商、大公司、政府組織聯合起來“殺熟”怎麼辦?
對於赫拉利的這種擔憂,李飛飛分享了斯坦福AI研究院針對“可解釋AI”做得一系列工作,而且,業內也在探索對資料庫依賴更少的機器學習方法,比如少樣本學習和零樣本學習。除了大超大規模的多層深度神經網路,直接從人類經驗、學習方式中得到啟發的“元學習”等方法,也能幫助解決這類問題。
(李飛飛)
第四回合:AI全球競賽,會比核競賽更可怕嗎?
赫拉利還提到,目前AI的發展只有中、美以及極少數國傢俱備競爭優勢,而大多數亞歐非國家的整體技術水平甚至都不如谷歌亞馬遜這樣的科技企業。
而且,隨著AI產業的發展,各國之家的競爭意味也越來越濃。比如歐洲主動建構資料壁壘,美國對中籍技術人員加強簽證審查等等。目前的趨勢是,國家競爭開始大於合作。這顯然不是一個好訊息,甚至可能引發一場數字化的全球殖民。
但李飛飛並不同意這種判斷。她認為目前AI在全球範圍內的合作和交流非常頻繁,遠超出赫拉利的想象。斯坦福每年與全球合作產生的科學論文就數不勝數,GitHub這樣的開源服務社群也越來越多。而且,越來越多掌握技術優勢的巨頭企業也開始推崇“AI民主化”的思路,在產業發展上扮演起了分享者的角色。
一些AI發展較為落後的國家,還是有很多機會和時間去思考,制定自己的AI發展戰略的。
(尤瓦爾·赫拉利)
四個回合的交鋒下來,我想大多數人也很難得出什麼清晰有效的結論。這甚至稱不上是一場論戰,而是兩種看待AI的思維方式之間的交談。赫拉利如同一個操心的老母親,痛心疾首地規勸青春期的AI,誰知道前面埋了多少隱患啊,猥瑣發育,別浪~
恰好碰上當慣了“MT”的李飛飛,對於技術非常熟悉,更擅長解決問題,不會對背後的哲學危險想太多。
兩個人都想將對方引入自己的邏輯框架和經驗體系,卻又接二連三地自說自話。
李飛飛就在對話中開了一個玩笑,說“科學家們真的很忙,我羨慕哲學家們,他們可以只提出問題來,用幾千年來反覆討論卻沒有個答案,而我們科學家們卻要馬上回答。”
一種“我跟你談理想,你跟我談現實”的無力感覺,幾個回合下來,作為觀眾的我都感覺有點受不住了。
這裡不妨列舉幾個相愛相殺的“cp”,大家品品看是不是熟悉的配方和味道。
一個恆久的命題:該不該對AI常懷恐懼?
早在五年前,類似的談話就曾在另外兩位大佬:特斯拉的創立者埃隆馬斯克,和Facebook創始人及CEO扎克伯格身上發生過。
馬斯克是一個堅定的“AI反對者”。他曾經一再通過電視和各種社交媒體渠道提醒全世界,人工智慧“可能要比核武器更危險”。為了防範AI風險,馬斯克還出資建立了獨立人工智慧實驗室OpenAI,研究目標是開發確保不會失控的超級智慧技術。
不過,與赫拉利不同的是,馬斯克認為人類想要與超級AI並存,必須讓大腦與機器直接聯絡。為此,他還創辦了一家名叫Neuralink的公司,投資總額高達1億美元,來研究通過電腦與人類大腦連線的“神經介面”。
但扎克伯格認為,馬斯克對人工智慧的看法“相當不負責任”,完全就是杞人憂天,還會威脅到自動駕駛和AI醫療等對人類有益的技術進步。
為了扭轉馬斯克的念頭,2014年11月19日,扎克伯格邀請馬斯克到家中共進晚餐,列席的還有Facebook人工智慧實驗室的兩名頂級研究人員以及另外兩位Facebook高管。
雖然是1v3,但馬斯克完全沒有在怕的。Facebook的代表們試圖通過一頓晚餐讓馬斯克相信自己對於人工智慧的看法是錯誤的,但除了費了點口水,並沒有起到任何作用。
後來扎克伯格還為此諷刺過馬斯克,“已經和馬斯克討論過這件事,他對這個問題的理解非常有限。”
對於AI,Facebook的態度基本上和科技行業的看法是一致的,那就是隻要能讓世界變得更美好,就是好的技術。
產業界爭論不休,學術界也存在分歧。
已故的物理學家史蒂芬·霍金(Stephen Hawking),就公開表達了對人類創造出比自己更聰明機器的擔憂。提醒人類應該在重度押注AI之前認真考慮所產生的後果。
康奈爾大學電腦科學教授、貝爾實驗室前研究員Bart Selman也認為目前研究的系統能力過於強大,“我們現在還無法理解它的影響力。”
但麻省理工學院的機器人專家Rodney Brooks卻認為“AI威脅論”並不科學,得出這樣不能被論證對錯的結論,是科學家們所不能接受的。
在近日對全球23位頂尖AI學者的一次調查中,其中包括了DeepMind執行長Demis Hassabis,谷歌AI執行長Jeff Dean和斯坦福AI負責人李飛飛等,想要在有生之年見證AGI(通用人工智慧,也是令馬斯克焦慮的“超級智慧”)的實現,幾乎不可能。
目前人類已經擁有了成千上萬的AI系統。可涉及到一般的腦力活動時,還沒有一個AI系統能夠比得上老鼠,更別說超過人類了。
對此,艾倫研究所的負責人Etzioni表示,今天的人工智慧系統依然非常有限,花太多時間去擔心它的安全性,完全沒有意義。
矽谷有句諺語:我們會高估三年內的成果,但低估10年後的成績。目前看來,這種觀點上的反覆爭論,正恰如其分地體現了這一點。
對於AI這樣複雜的領域來說,哲學與科學的反覆博弈,是一個長期且必經的過程,未來還將持續進行下去。如何在人類社會上架設智慧,沒有簡單唯一的標準答案可供參考。
即使在各學科的頂級精英內部,都很難達成一致。
要讓大眾理解AI到底能做什麼、在做什麼、將做什麼,也是一件任重道遠的是。大多數哲學家、社會科學家和評論家都會“AI威脅論”買單,更何況廣大普通群眾。“AI取代人類”至今還能登上一些新聞資訊平臺的頭條,已經足以說明問題。
惡之花到底開在哪裡?科學與社會的雙重警告
值得一提的是,與其爭論“機器”會不會統治人類,不如擔心一小部分人利用技術工具進行不合理的操作。
比如前不久美國五角大樓試圖向科學界尋求幫助,試圖研製新型自主武器。這一舉動就遭到了4000多名谷歌員工的聯名抗議,甚至不少員工宣佈不會繼續為谷歌工作。
隨後,谷歌也在輿論壓力下放棄了五角大樓價值900萬美元的合同。
當然,習慣“調戲”社會紅線的不只有渴望技術力量的人,還有恐懼它的。
哈佛大學教授泰德·卡辛斯基(Ted Kaczynski)就是一個典型的例子。這位高智商犯罪者用18年的時間,向芝加哥大學、耶魯大學等院校的理工科教授投遞除了16枚炸彈,共炸死3人,炸傷23人。
還給《紐約時報》寄了一枚,要求他們承諾一字不改全文刊登他的論文。最終,FBI和美國司法部同意了這個要求,《紐約時報》和《華盛頓郵報》在1995年9月19日分別刊登了這篇《論工業社會及其未來》。
這篇論文的觀點充滿了對技術的哲學思考,比如說:
“每一項新技術單獨考慮都是可取的,但匯聚在一起,普通人的命運不再掌握在他自己手中,而是掌握在政客、公司主管、技術人員和官僚手中。”
還有,“假設電腦科學家成功地開發出了智慧機器,這些機器無論做什麼事都比人類強。在這種情況下,人類可能會輕易地讓自己淪落到一個完全依賴機器的位置,淪落到不能做出任何實際選擇,只能接受機器的所有決策的地步。”
即使超級智慧沒有出現,但“機器也將承擔越來越多的簡單工作,而低能力的工人將越來越過剩,未來留給人類的都是一些不那麼重要的工作。以這樣的方式結局,對於人類來說也太可憐了”
……
卡辛斯基認為,新技術引入社會會引發一長串變化,其中大部分是不可預測的,因此唯一的解決方法就是放棄科學技術。
聽起來是不是和前面的“AI威脅論”有點雷同啊?觀點原本無可厚非,展開探討還能促進社會進步與技術倫理的完善。但卡辛斯基為了踐行自己的理念開始“反社會”,動不動給人寄炸藥包,這已經不是觀點之爭了。論文發表後,卡辛斯基被自己的弟弟舉報,於1996年被捕,最終被判處終身監禁。
或許,今天即便在眾多學者的努力和言傳之下,我們依然無法預知並得到一個關於AI的終極答案,但可以肯定的是,隨著AI自我監督和黑箱性的破解,它的安全指數正在快速提升。某種程度上,眾多“AI威脅論”者持之以恆的批評和質疑起到了“精神安全鎖”的作用。
不久之前,Deepmind在部落格中透露,準備研發一種“AI保險機制”,一旦發現AI的惡意傾向,就主動終止AI的活動。
當提出問題和解決方案不斷以交替往復、互相影響的狀態向前奔跑時,也就給AI的潛在危險貼上了一個又一個“絕緣膠布”。
最後,用赫拉利的前輩蘇格拉底的一句話來結束這篇文章吧—— “我只知道一件事,那就是什麼都不知道。”