安德魯·摩爾接替李飛飛,谷歌AI與美國軍方的界限劃得清嗎?
“人工智慧是一個全新的領域,作為一個科學家,我也誠惶誠恐。”斯坦福大學教授李飛飛在9月17日舉行的2018世界人工智慧大會上說道。“我們從未創造過一種如此接近人類的技術,但對它的未來影響還知之甚少。”這是李飛飛自宣佈卸任谷歌雲AI負責人之後的首次演講,繼續呼籲人工智慧應該“以人為本”。
9 月 10 日,谷歌雲CEO戴安•格林(Diane Greene)宣佈,李飛飛將於2018年年底卸任,重返斯坦福大學任教。而接替她的正是卡耐基梅隆大學(CMU)計算機繫系主任安德魯•摩爾(Andrew Moore)。 值得一提的是,摩爾是一名谷歌老員工了,他曾在2006年至2014年在谷歌工作。
而格林卻沒有對外提及,摩爾也是目前新美國安全中心(CNAS)的人工智慧特別工作組的聯合主席,該組織與美國軍方有著密切的聯絡。據悉,與摩爾同為該特別工作組聯合主席的是羅伯特•沃克(Robert Work),沃克是前美國國防部副部長,紐約時報稱其為“美國國防部Maven計劃建立背後的推動力量”,而Maven計劃則是美國“演算法戰跨部門小組”利用AI技術挖掘作戰資料而成立的。
恰逢中美貿易戰、中美兩國在人工智慧領域的爭奪,李飛飛的離任、摩爾的迴歸,重新引發了一場關於AI原則的討論——AI究竟是以人為本的科技,還是與國家軍事力量糾纏在一起。

(左圖為李飛飛教授、右圖為安德魯•摩爾教授)
1、摩爾的迴歸是對Maven反對者的一記重拳
Maven計劃目的在於加速美國國防部對人工智慧與機器學習技術的整合,將國防部海量可用資料快速轉變為可用於行動的情報。
2017年12月,“Maven計劃”首批演算法在美國非洲司令部部署。2018年3月,在美國總統特朗普簽署的2018財年綜合支出法案中,美國國會為“Maven計劃”增加1億美元經費,使其在2018年獲得的經費總額度達到1.31億美元,這筆資金將主要用於改進演算法讀取全動態視訊資訊的能力。
今年上半年,谷歌公司4000多名員工簽署請願書抗議公司參與“Maven計劃”,要求谷歌退出該計劃,並起草、公開和執行一項永不發展戰爭技術的政策,十幾名員工辭職以示抗議。今年6月,谷歌CEO皮蔡公佈了一份指導公司發展人工智慧的7條原則,其中包括永遠不將人工智慧用於增強武器,確保人工智慧應用於對社會有益、安全的應用,並且決定終止該公司同五角大樓的人工智慧合同。

如今安德魯•摩爾的迴歸無疑會重新引發關於谷歌涉足人工智慧市場以及該公司與軍方關係的爭論。
在卡內基梅隆大學任職期間,摩爾經常討論人工智慧在防禦和軍事應用方面的積極作用,這位人工智慧專家曾在2017年發表的關於人工智慧與全球安全的演講中發表驚世駭俗的言論,“如果我們想要並且需要的話,我們可以用無人機監視整個世界。”這無疑是對很多非美國盟友國家領空權的一次公開挑釁。
當然這一“屁股決定腦袋”的權威發言或許正中美國鷹派人士的下懷,摩爾擔任聯合主席的特別工作組隸屬於新美國安全中心,該組織的使命是“發展強有力的、務實的、有原則的國家安全和國防政策,以促進和保護美國的利益和價值觀。”其實,新美國安全中心(CNAS)就是美國的軍情智庫,今年7月,由安德魯·摩爾在任期間釋出《人工智慧與國家安全》的報告。
摩爾的迴歸,引起了多位反對Maven計劃的谷歌前員工的不滿。“在內部廣泛出現針對Maven計劃的異議之後,谷歌決定聘請摩爾,這非常令人擔憂”,美國知名科技部落格Business Insider引用一位谷歌前員工的話說。
“谷歌員工希望公司儘可能地與軍工企業劃分界限,而不是更多參與。對於那些簽署了取消Maven計劃聯名信的4000多名谷歌員工來說,這次摩爾的迴歸就像是一記重拳。”
如果谷歌參與或捲入到美國Maven計劃之中,這無論是對谷歌返回中國,還是在AI技術在全球市場本土化落地過程中都將帶來極其深遠的影響。這一次,谷歌將走進一個十字路口。
2、全世界都盯著,谷歌能否堅守原則?
作為全球人工智慧前沿的科研機構,谷歌的大膽投入其實與以往國家力量作為前沿技術研發主導力量有所不同,而谷歌的AI進展牽動著各方人士的神經,首先我們得了解一下安德魯·摩爾(Andrew Moore)的經歷,以及其對於人工智慧的價值觀。
作為一個出生在英國的美籍科學家,安德魯·摩爾對於將人工智慧帶出實驗室保持謹慎的保守態度,他曾在接受採訪時說過,“即使我知道在一個城市裡佈置一組自動駕駛汽車可以減少50%的死亡率,我也不會去做,因為還沒有一個正式證明能100%地確保它不會導致不必要的死亡。”
儘管如此,他並沒有迴避與軍事部門打交道,新美國安全中心人工智慧特別工作組在3月宣佈成立時,摩爾成為扛鼎人物。在卡內基梅隆大學公示的簡歷中提到,摩爾的工作曾涉及“發現和監視恐怖威脅”,他也在一份2017年9月釋出的“海軍部自動和無人系統”的研究報告中被列為貢獻者之一。
看來,摩爾對於AI的民用化與軍事化持有者大相徑庭的態度,並在各種公開場合鼓吹AI應用於國防的前景和軍事用途。
摩爾在2018年一次關於全球安全的講話中,他談及將谷歌和亞馬遜生產的消費電子產品運用於軍事用途的可能性,以“撥開戰爭迷霧”。谷歌、亞馬遜本身已經不僅僅是美國人的公司,而是代表不涉政的國際化技術力量,摩爾入職谷歌,對這家極客文化主導的矽谷公司引發動盪。
反對Maven計劃的一派認為,谷歌應該與軍方劃清界限;而摩爾的加入讓一部分“中間派”開始動搖立場,但是很顯然,摩爾的到來將會壯大此前參與到Maven計劃中的谷歌部門實力,並推動谷歌AI技術的軍事化應用。
讓人欣慰的是,反對派中的多位學者,曾給谷歌方面的幾位負責人寫信,這些負責人除了Alphabet CEO拉里•佩奇、谷歌 CEO桑德爾•皮蔡以及谷歌雲CEO 戴安•格林之外,還有谷歌雲首席科學家李飛飛。李飛飛曾警告谷歌管理層在討論AI和軍方合作時要小心行事。
AI能否參與到軍事化,是一場關於技術有沒有價值觀立場的終極拷問。如果認為技術沒有價值觀,就像電力應用在軍事當中一樣是無可厚非的話,那麼就不會引起這樣的爭論和不安了。

2018年3月7日,李飛飛在《紐約時報》網站發表了題為《如何讓 AI 對人類有益?》(《How to Make A.I. That’s Good for People》)的文章中寫道,許多人說機器並沒有價值觀,但實際上,機器的價值觀就是人類的價值觀。
AI該體現怎樣的價值觀?在李飛飛看來,人工智慧需要更多地反映我們自身智力的深度;人工智慧應幫助人類,而不是取代人類;確保人工智慧在發展過程中得到正確的引導。
李飛飛的言外之意是,谷歌開發AI技術應該堅持谷歌人所持有的價值觀,而不應受美軍方強權擺佈。
3、谷歌AI軍事化的危機透視
首先,人工智慧應用在國家安全、刑事偵查、反恐等領域前景確實非常大,這本身也是AI應用的場景之一。
美國獨角獸公司Palantir就是AI安全域性等專案服務政府第一個吃螃蟹的獨角獸公司,Palantir幫助FBI、CIA、美國國土安全域性等部門從海量財務資料、DNA樣本、語音資料及世界各地地圖等資料中找到了追蹤本·拉登行動的一手資料,國防安全輔助服務一直是Palantir現金牛業務。
我國AI應用的人臉識別技術、智慧攝像頭安防監控現在廣泛應用在火車站、機場、交通等公共區域,刑事案件偵查中也開始使用格靈深瞳、明略大資料的資料化分析平臺,通過快速構建起人、事、地、物、組織之間的多重關聯結構關係能夠大大提升刑偵效率。
其次,企業確實能夠從服務政府國安及偵查專案中獲得數億訂單,但這並不意味著谷歌要這樣做。
谷歌作為全球最大的搜尋引擎,以及移動網際網路安卓原始碼開發平臺,如果谷歌為美國軍方效力,不僅威脅美國本土使用者的隱私問題,全球網民的資訊保安問題都會令人寢食難安;谷歌本應該成為網際網路資訊保護的“執劍人”,但是這希望或許將會隨著安德魯·摩爾的加入而變得渺茫,而摩爾到任,本身或許是資本與政治在激烈博弈中達到的某種妥協結果。
此前谷歌在中美貿易戰的導火索“中興事件”中扮演著關鍵角色,其實已經引發了谷歌為美國軍事政治力量所影響的擔憂,如今引起國內媒體的警惕亦不無道理。
再次,目前摩爾到任,或許意味著谷歌在2019年將續簽Maven計劃,谷歌AI技術或許會用在軍事演習、武器、飛機、網電攻防等領域為美國軍方服務,從而引發全球新一輪的軍備競賽;這實際上是美國本土日益掀起的“美國利益至上”的保守主義的延續;這本身並不利於谷歌之前在AI商業化中所扮演的積極角色。
結 語
儘管最早計算機是起源於二戰中炮彈彈道的計算,但是計算機真正發展為網際網路則是全球資訊高速互聯互通的和平年代下發展起來的,商業始終是網際網路主流;谷歌作為全球化資訊流通的產兒應該捍衛其“不作惡”的價值,尤其是有能力行惡的時候;如今AI對於人類命運前途未卜,谷歌更應該明確對於政府力量介入以及軍事專家滲透“Say NO”就像蘋果拒絕美國政府要求協助解鎖手機一樣;如果受限於地域偏見喪失全球使用者的信任,或許對谷歌來說才是最大的危機。