霍金留給人類最後的警告:《重大問題簡答》出版
10月16日,已故著名物理學家斯蒂芬·霍金最後的著作《重大問題簡答》一書出版,不同於經典著作《時間簡史》,這本最新的著作重點關注目前地球上所有人都將面臨的幾個重大挑戰,包括人工智慧的發展、基因編輯技術、氣候變化、核戰爭的威脅等等。
霍金在書中稱,未來人工智慧可能形成自己的意志——與我們人類相沖突的意志;一種利用基因工程超越同伴的“超人”種群將佔據主導地位,這可能毀滅人類。
人類的進化沒有邊界
“我在這個星球上過著不平凡的生活,同時用我的頭腦和物理定律穿越宇宙。我去過銀河系最遠的地方,進入了黑洞,回到了時間的起源。在地球上,我經歷過高潮和低谷,動盪和和平,成功和痛苦。我富有過,貧窮過,我健全過,殘疾過。我受到過讚揚也受到過批評,但我從未被忽視。”
《重大問題簡答》
在整本書中,霍金對人類在地球上的未來持悲觀態度。政治不穩定、氣候變化以及核暴力的可能性,使人類在地球上發展的持續性變得難以為繼。霍金認為,地球面臨的頭號威脅是小行星碰撞,類似那種導致恐龍滅絕的碰撞。他寫道:“可是,我們(對此)無法防禦。”
更直接的威脅是氣候變化。“海洋溫度上升將融化掉冰冠,釋放出大量二氧化碳。雙重效應可能導致我們的氣候類似於金星,氣溫達到250℃。”霍金認為,核聚變發電會賦予我們清潔能源,不排放汙染,不引起全球變暖。在“我們如何塑造未來”章節中,霍金不同意人類處於“進化巔峰”這一觀念。在他看來,人類的進化和努力沒有邊界。
他認為人類未來有兩種選擇:首先,探索其他可供人類居住的替代星球,他在不止一章中提倡太空殖民,包括殖民月球、火星或星際行星等;其次,積極利用人工智慧來改善我們的世界。
人工智慧將形成自己的意志
霍金還強調了規範管理人工智慧的重要性。他指出,“未來人工智慧可能形成自己的意志,與我們人類相沖突的意志”。應當制止可能出現的自動武器軍備競賽,如果發生類似於2010年股市閃電崩盤那樣的武器崩盤,後果將不堪設想。
他在書中寫道:“對人類來說,超級智慧的人工智慧的出現不是福就是禍,二之必居其一。人工智慧的真正危險並非在於惡意,而在於能力。超級智慧的人工智慧終將極其擅長實現目標。如果這些目標與我們的目標不一致,那我們就麻煩了。”
他主張政策制定者、科技行業和普通大眾認真研究人工智慧的道德影響。
創造AI將是人類史上最後的大事件
人們很容易把高度智慧機器的概念當作科幻小說來看待,但這將是一個錯誤,而且可能是我們有史以來犯的最嚴重的錯誤。
霍金認為,當AI在人工智慧設計領域變得比人類更優秀,以至於它可以在沒有人類幫助的情況下遞迴地自我改進時,我們可能會面臨一場智慧爆炸,最終導致機器的智慧遠遠超出我們。
機器智慧跟人類的差距有多大?霍金說,這種差距甚至比人類超過蝸牛的還要大。當這種情況發生時,我們需要確保計算機有跟我們一致的目標。
迄今為止,人工智慧的原始形式已被證明非常有用,但霍金擔心,如果創造出一種能與人類匹敵或超越人類的東西,後果將不堪設想。人類受到緩慢的生物進化的限制,無法競爭,將被取代。在未來,人工智慧可以發展出自己的意志,一種與我們的意志相沖突的意志。
霍金認為,創造人工智慧將是人類歷史上最大的事件。不幸的是,它也可能是最後一個,除非我們學會如何規避風險。
“超人”種群將佔據主導地位
據英國《星期日泰晤士報》15日報道,霍金最大的擔憂是,富人不久將能夠編輯自己及其子女的DNA,提高記憶和疾病免疫力。
霍金認為,未來1000年的某個時刻,核戰爭或環境災難將“嚴重破壞地球”。而到那時,“我們的天才種族可能已經找到了擺脫地球束縛的方法,因此能夠戰勝災難”。不過,地球上的其他物種可能做不到。
這些成功逃離地球的人很可能是新的“超人”,他們利用諸如CRISPR(俗稱“基因剪刀”)這樣的基因編輯技術超過其他人,科學家可利用此類基因編輯技術修復有害基因,並加入其他基因。
霍金還表示,即使政治家設法用法律禁止這一做法,但這批人會不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預期壽命,這將對世界其他人群構成危機。
一旦出現這種超人,未能通過基因改造來提高自身的人必將遇到重大政治問題,他們無力競爭,也許會變得可有可無,甚至會絕種。不過,未來將出現一種不斷加速改進的自我設計人類,如果這種人類種族能不斷設法重新設計自己,很可能擴散開來,殖民其他行星和星球。
霍金