1. 程式人生 > >李彥巨集:AI 不應該像人,現在很多智慧都是假的!

李彥巨集:AI 不應該像人,現在很多智慧都是假的!

640?wx_fmt=gif

640?wx_fmt=jpeg

責編 | 胡巍巍

出品 | CSDN(ID:CSDNNews)

北京時間 8 月 23 日,在首屆中國國際智慧產業博覽會的大資料智慧化高峰會上,百度董事長兼執行長李彥巨集發表了題為《智慧城市的 AI 新思維》主旨演講。

李彥巨集正在發言

在演講中,他提到了當前人們對於人工智慧的三個誤區。

第一個誤區,李彥巨集認為,人工智慧不應該長得像人,“我們的精力不應該花在怎麼去造出一個長得像人的機器,不應該花在解決讓這個機器怎麼學會走路、跑步、上下樓梯,這是機械時代的思維。如果要讓機器去替代人的體力勞動,那我們在工業化時代已經解決了這個問題,(現在)我們要解決的是讓機器能夠像人一樣思考。”

第二個誤區,李彥巨集稱,通過研究人腦工作,來讓機器像人一樣思考,是行不通的

。李彥巨集提到,目前人類根本還沒有搞清楚,人腦是怎麼工作的,又何談用機器來模仿人腦的工作原理。所以人工智慧,應該用機器的方式,實現人腦能夠實現的價值或者作用。

第三個誤解是關於“人工智慧威脅論”,李彥巨集認為,人類根本無需擔心人工智慧會“威脅”到自身。他說,“這個我覺得也是完全沒有必要的擔心。因為我們在做每天的技術方面的研究時,會發現比我們想象的要難很多,讓機器像人一樣思考,就是所謂的 AGI(Artificial general intelligence:通用人工智慧)實現,其實還離我們非常遠。”

640?wx_fmt=jpeg

人工智慧誕生於上世紀 50 年代,作為一門前沿交叉學科,幾經起落,也一直沒有統一的定義,而大眾對於它的認知也存在著諸多的誤解,從李彥巨集的演講中我們可窺其一二。關於 AI 的爭議,CSDN 也為大家翻譯了一篇譯文,下面為正文,稍微有點長,但是乾貨滿滿,值得你一看。

640?wx_fmt=jpeg

首先,我們對 AI 要有深刻的理解;其次,我們還得知道,如何才能讓 AI 發展得更好。只有滿足這兩點,我們才有資格,去評估 AI 的進展。

大多數學科對於的自身的進展評估,都有非常明確的標準。然而人工智慧是一個例外。它至少需要從六個其它領域,借用方法和標準,以便評估自身的進展。這六個領域分別是:

1. 科學;

2. 工程;

3. 數學;

4. 哲學;

5. 設計;

6. 演示。

這種做法,通常會產生一些麻煩。評估標準太過多樣化,不同領域側重的研究方向也不一樣。使用哪種方法?哪些結果更為重要?進展情況如何?不同領域針對這些問題,難免產生分歧。

為什麼 AI 要用多個其他學科的評估標準,來約束自己?難道它不能,自己決定自己的發展方向嗎?

事實的確如此,AI 類似於鹿角翼兔,它是多個學科的結合體。單個的學科標準,很難對 AI 進行客觀和全面的評估。

640?wx_fmt=jpeg

鹿角翼兔:是德國巴伐利亞高山森林中的傳說生物。它的身體就像松鼠或者野兔,通常會有蝙蝠般的翅膀、鹿的角和尖利的牙齒。

這篇文章提供了一個框架,幫助大家思考,如何才能讓 AI 這隻鹿角翼兔騰飛。該框架並非虛無縹緲,它是落到實處的:它涵蓋了六個不同學科標準的不同視野,以及這六個學科,在人工智慧研究中的不同作用。根據研發人員以及具體專案的不同,這六個學科可以組合出最好的結果。人們可以提出有說服力的論據,來增加某些學科的權重。

評估 AI 需要從三個維度去考慮:解決的問題、採取的策略以及應用的方法。我主張通過更多的科學實驗,來改進人工智慧實踐;追蹤哲學上的有趣問題;更好地理解設計實踐;更加註重創造壯觀的演示效果。下文將詳細地解釋這些要點。

該框架主要面向 AI 從業人員。對於大眾來說,他們更為關注的問題可能是:超級智慧 AI 需要多長時間,才能幫助我完成工作、讓我們不用工作都可以變得富裕。我認為想要得到理性的結論,是非常複雜的,這需要對詳細評估框架,進行深入分析。

然而,我本文的觀點一出,隨之也出現了一些懷疑論。人工智慧忽略了科學理論測試,而且它所知道的大部分內容,都可能是錯誤的。並且,一些 AI 成果的演示通常會產生誤導。

接下來,本文將分為六個部分,分別闡述六個學科標準,在 AI 中發揮的作用;然後是結論部分,重述我認為的六個學科權重。

640?wx_fmt=png

科學

衡量科學進步的指標主要有:

1. 新發現的真相;

2. 更廣泛的解釋;

3. 一種與眾不同的“有趣”感,與普通的好奇心有關,但並不完全相同。

讓我們按順序闡述。

最大的缺陷

640?wx_fmt=jpeg

從50年代到80年代的主流人工智慧研究專案,被稱為“老式人工智慧”(GOFAI),人們對它的熱情已經散去。GOFAI 曾經令人興奮不已,因為它為知識、推理、感知和行動如何運作,提供了有趣且合理的解釋。

幾十年來,我們都未能將這些理論付諸實踐,而當我們實現這一目標時,又不被認可。我們所知道的一切,幾乎都是錯的。GOFAI 研究計劃,在1990年左右徹底瓦解。

Ayer 年輕時,是一位邏輯實證主義的支持者,當這種理論失敗之後,人們問他:“現在回想起來,你認為這場運動最主要的缺點是什麼?”他回答說,“我認為最大的缺點就是幾乎所有的一切都是假的!”

GOFAI 有很多缺點,但最主要的缺點在於,幾乎所有缺陷都是假的。我們應該早點意識到這一點,但我們被迷人的哲學和心理學問題,分散了注意力,認為自己能夠做出,一些非常炫酷的事情!

就目前的人工智慧而言,最重要的問題是:究竟它的哪些部分是真的?它可能有其他的優點、或者缺點,但是在完成足夠的科學研究、以確定哪些部分是真實的之前,這些都是次要的。

科學旨在通過可能的實驗、或者其他觀察,來了解世界的運作方式。在 AI 中,實驗是奢侈的。

更好的是:在完全受控的條件下,我們進行完美、且重複的實驗!面對科學調查,幾乎沒有領域,敢說自己是非常適合的。

然而,人工智慧研究,包括假設、或者實驗的情況並不常見。論文報告的內容,聽起來通常像一個實驗,但實際上它相當於:我們將 X 體系結構,應用於 Y 任務,然後獲得 Z% 的正確率。

這裡沒有具體的假設。缺乏假設,實驗就是不科學的,你只是記錄了,一個事實而已。

解釋 AI

如果理論能夠被合理的解釋,那麼它就會直觀得多,而不僅僅是生硬的公式。雖然沒有強制要求,但解釋的確是科學進步的標準。一個好的實驗,應該使用控制手段,來消除資料以外所有形式的解釋。

你的演算法 Z% 正確,為什麼?這對於類似問題的表現,意味著什麼?AI 論文通常只是推測。答案可能是“我們得到 Z% 正確,因為 X 架構非常強大,它也可能對你有用!”

該論文可能會說“之前的論文,基於 W 架構,目前的版本,比之前的好 Z% ”,這暗示著 X 比 W 更好。但這有足夠的說服力嗎?

與 GOFAI 相比,目前的機器學習研究,沒有優先考慮解釋。該領域有時似乎在抵制它們。就科學標準而言,如果沒有嚴格的解釋性假設檢驗,你只會留下有趣的東西。很多時候,趣味性,構成了人工智慧公開演示的主要內容。

“今年我們實現了 Z% 的正確率,而去年同期的正確率僅僅為(Z-ε)% ”。這聽起來像是進步了,但它有意義嗎?

如果你真的想通過解決方案,來改進一個具體問題,那麼需要遵循工程流程,我將在下一節中討論。除非你瞭解改進的來源,否則就並非科學進步。

通常,如果沒有廣泛而嚴格的實驗,你就無法做到這一點。你需要針對任務的多種變體,對其進行系統地測試,以便隔離導致成功的因素。你還需要測試其他架構,並完成其他任務。

這項工作很艱鉅。許多研究人員,做了一些實驗。然而,為了充分檢驗假設,整個領域需要、但通常不會填補缺失的部分。其量化基準競爭的文化,鼓勵理論上的修補,而不是科學。

在許多最近大肆宣傳的 AI “突破”中,缺少看似最明顯、和最重要的對照實驗。(我打算在下文中,討論其中的幾個。)

AI 具備科學趣味嗎?

因為 AI 調查人工智慧,其核心問題,不一定具有科學意義。它們只有在 AI 系統故意模擬自然智慧的程度上,對生物學感興趣;或者在某種程度上,你可以說,只有一種計算,可以完成任務。所以,生物學和人工智慧,必然是一致的。例如,這可能適用於視覺處理的早期階段。

AI 的核心,並不在於能夠進行計算的自然(科學);也不在於今天可以進行計算的東西(工程);也不在於無限資源的原則性計算(數學)。

它真正的核心,在於我們可能在,不太遙遠的未來,實際構建的機器可能計算的內容。正如本文所述,我建議 AI 的有趣性標準,更接近於心靈哲學而非科學、工程或者數學。

從可複製性改革運動中學習

費曼在其著名的“貨物崇拜”中指出,科學的“第一原則” 應當是:你不能欺騙自己,你自己是最容易被欺騙的人。所以你必須非常小心。只要你不愚弄自己,那麼也就不容易欺騙其他科學家。

心理學的“可重複危機”表明,許多科學領域,一直都在大規模地欺騙自己。大多數已發表的研究結果,都是假的。

面臨這個問題的領域很多,社會心理學就是其中之一。心理學家正在進行令人印象深刻的回顧性分析,並嘗試改革。該領域的科學家發現,在以下情況下,最有可能得出錯誤的結論:

  • 研究人員追求戲劇性的、令人驚訝的、且對人性和日常生活產生影響的理論;

  • 研究人員與媒體合作,超越發現本身,向公眾解釋時誇大其詞;

  • 研究人員可以在事後,解釋他們的結果;

  • 研究人員不報告空結果(“失敗”);

  • 研究人員很少重複彼此的工作,來發現問題;

  • 研究人員就不會詳細記錄他們的工作,沒人可以檢查他們的工作;

  • 實驗規模不充分(僅選用多維度中的其中一個);

  • 缺失或者缺少控制(以多種方式中的任何一種);

  • 為了找到理論的侷限性,實驗並沒有系統地改變。

這些科學實踐的失敗,在人工智慧研究中很普遍,似乎與十年前的社會心理學一樣。依照心理學的經驗,我們應該期望許多假設的 AI 結果,在科學上是錯誤的。

心理學和人工智慧,並非偽科學。社群有不好的認識規範:那些不能可靠地導致新事實的規範。個別研究人員,盲目追隨其他成功者的腳步。沒有社會改革運動的話,我們不能指望他們這樣做。

激動人心之處在於,心理學家正在認真對待這些問題。他們正在制定新的認識規範,以防止這種科學實踐的失敗。這些改革,應該使真實的、解釋性的、有趣的理論的發現更加普遍。

AI 可以借鑑心理學的經驗,提高實踐標準嗎?我認為它可以,而且應該這樣!

也就是說,AI 是一個鹿角翼兔。這不僅僅是科學,而且可能不僅僅是,遵循可複製性運動的主導。

640?wx_fmt=png

工程

工程學將熟知的技術方法,應用於實際問題,以產生效果良好的實際解決方案。

工程學的進步標準,與科學有很大不同。如果你在工程學過程中,發現新的真理或者解釋,只能是偶然的。在科學意義上,工程學不應該是“有趣的”;相反,當它產生實際價值時,它是令人興奮的。

工程找到明確的限制範圍內的解決方案,並優化明確目標。典型的有幾種,通常在它們之間進行權衡。例如:成本、安全性、耐用性、可靠性、易用性和易維護性。

AI 研究人員,經常聲稱自己,在進行工程實踐。當你指出他們,沒有進行科學實驗時,這種說法就是一個很好的擋箭牌:“是的,我只是在做工程,讓這個小部件工作得更好。”

當你提出哲學上的考慮因素,是相關因素的時候,他們的回答,聽起來也很諷刺:“我正在做真正的工作,那些空想的東西是無關緊要的。作為一名工程師,我是唯物主義者。"

一些 AI 工作,是真正的工程,以下是判斷標準:

  • 它是否採用了,特色鮮明的技術方法?有時;但很少有 AI 方法,可以理解。

  • 它是否解決了,明確的實際問題?有時;但在研究中,人工智慧最常適用於玩具問題,而非實用問題;在工業中,對於特徵不明顯的混亂。

  • 它是否產生了,熟知的實用解決方案?有時你可以說,“我們的廣告點選率上升了0.73%”,但如果你不知道原因,點選率明天就可能下跌。

“資料科學”,在某種程度上,是 AI(機器學習)方法,應用於混亂的實際問題。有時這很有效。我不太瞭解,資料科學人員,但我的印象是,人工智慧方法的難以理解、和不可靠性,令人沮喪。

他們的觀點,更像是工程師的觀點。並且,我聽說,他們發現有充分表徵的統計方法,在實踐中比機器學習更好。

與工程相鄰的,是新技術方法的開發。這是大多數 AI 人,最喜歡的。當你可以證明,新系統架構比競爭對手好 Z% 時,這是特別令人滿意的。

關於基準問題,每個人都在競爭。這是否可靠地轉化為,現實世界的實踐?大多數人工智慧研究人員,不想花時間去發現。相比於工程,AI 的這個方面與設計,有更多的共同之處。

當你能做到這一點時,工程是很棒的。AI 應該更像工程嗎?通過大量的努力,人工智慧研究中,開發的方法,有時可以很好地表徵,以至於工程師,可以經常使用這些方法。

然後每個人,都不稱它為“ AI ”。這可能令人沮喪:每當我們做一些,非常好的事情時,它就會被搶走,並且該領域,沒有得到應有的信任。

毫無疑問,人工智慧研究,已經脫離了許多軟體技術最重要的進步。(你知道雜湊表(散列表:Hash table),一直被認為,是一種先進的、難以理解的人工智慧技術嗎?)從經濟學的角度來看,人工智慧研究,非常值得投資。

但是,一個詞的含義,在於它的用途。“AI”,用於表示“可能令人驚訝的複雜或者假設的軟體,但我們不明白它為何起作用。”這根本不是工程。

640?wx_fmt=png

數學

數學與科學一樣,旨在發現有趣的解釋性真理。“有趣”“解釋”以及“真實”的意思,是完全不同的,就像方法證明與實驗,它們是完全不同的。

在 AI 的整個歷史中,它已經深入數學,其結果有助於 AI 和數學兩個領域。這往往具有強大的協同作用。

也就是說,數學的評價標準,有趣、解釋和真實的感覺,在 AI 中,可能會產生誤導。

演算法漸近收斂的證明,是典型的例子。假設證明在技術上是正確的,那麼在數學意義上,肯定是正確的。

它可能表現出,數學上解釋的結構。例如,如果它顯著推廣了,早期的結果,那麼在數學上,是有趣的。

漸近收斂的大多數證據,對於具有不同標準的 AI而言,不是真實的,或解釋性的、或有趣的。AI 是關於物理可實現性的。這不一定意味著“使用當前技術可實現”,但它至少意味著“原則上可實現”。

顯示演算法得到正確答案“收斂”的結果,告訴我們物理上的可實現性。如果快速算術顯示,執行在 10 的 100 次方的 GPU 上的演算法,在一萬億年之後,仍然遠離答案,則證明不是真實的、解釋性的、或者有趣的,就像 AI 一樣。

相反,除非你能證明,演算法會在現實數量的硬體上,合理地快速收斂,它不是人工智慧,但它可能像數學一樣有趣。

數學是一個非常寶貴的工具。在人工智慧中,很好地使用它,需要使其超越數學本身的外來評估標準。

640?wx_fmt=png

哲學

640?wx_fmt=png

分析哲學,猶如科學和數學,旨在尋找有趣的解釋性真理。它擁有自己的想法,即“有趣”“解釋”和“真實”。

總的來說,哲學家從他們認為是真實的“直覺”開始,然後試圖通過論證,來證明它們是真實的。我認為真相標準“令人信服的直覺論證”,對人工智慧,產生了不良影響。

它與科學更好的標準“假設的中立檢驗”相沖突。它一再導致 AI,基於證據不足,而誇大其詞。我認為,分析哲學與神經科學的不正常關係,誤導了 AI。

另一方面,分析哲學的心理標準,對於什麼算作“有趣”,很大程度上與 AI 重合。從創立之初開始,人工智慧一直是“應用哲學”、或者“實驗哲學”,又或者“哲學制造的材料”。我希望,哲學直覺能夠在技術上,得到證明,而不僅僅是爭論,這將更具說服力。

大多數心靈分析哲學家,想要證明的兩個基本直覺是:

1. 唯物主義(與心靈、身體二元論相對):精神上的東西,實際上只是你大腦中的物質內容。

2. 認知主義(與行為主義相對):你有信仰、考慮假設、制定計劃,並從前提到結論,進行推理。

這些顯然是矛盾的。“假設” 似乎不是物質的東西。這是很難看到的信念。

這種緊張關係,給 GOFAI 帶來了問題,並且通過技術實施,可以證明其解決方案,超出了所有可能的懷疑範圍。

GOFAI 論文,主要描述了一個實現:Gizmo 架構(我將在設計部分,談論它)。他們通常,還描述了一個“實驗”,它很少有科學內容:它是“我們在三個小輸入上執行程式,它產生了所需的輸出。 ”

GOFAI 論文,令人興奮的部分,是解釋性論點。從小發明的結構開始,我們對心靈,做出了哲學主張。

該計劃“從經驗中學習”或者“從知識推理”。它的演算法,解釋了這些心理過程是如何起作用的,至少是粗略的,有些情況下,也可能是人類。

這些主張,往往被誇大了,主要是沒有科學依據。實際上,該程式構建了一個帶標籤的圖形結構。我們稱之為“知識” 。

這些演算法,是“學習”還是“推理”?最終,關於這一點,沒有任何事實。但是,它至少需要爭論,故事的那部分內容,大部分都缺失了。

這麼久以來,我們都錯怪了 GOFAI?我認為,這是通過繼承分析哲學的思維模式:試圖用敘事論證,來證明形而上學的直覺。我們知道,我們是對的,只是想證明這一點。我們開始證明它的方式,更多的是通過論證、而不是實驗。

最終,GOFAI 議程的障礙,似乎是原則問題,而不僅僅是有限的技術、或者科學知識問題,而且它已經崩潰。

在那一點上,我們中的一些人,回過頭來質疑 AI 的基本哲學假設,即認知主義,是行為主義的唯一替代品。我們開始了,一個新的研究領域,追求第三種替代、互動,且受到不同哲學方法的啟發。

我相信,人工智慧的“有趣性”的最佳標準,是哲學的,因此人工智慧研究的正確方向,是研究哲學問題。如果是這樣,一種新的哲學方法,是正確的舉措!贊成這一點的證據,是幾項技術的突破。也許我們能夠、而且應該,進一步開展這項工作。

在 GOFAI 崩潰之後,哲學家放棄了人工智慧。大多數人,仍致力於認知,因此他們將希望,轉移到神經科學。大腦顯然是身體、心理和認知,因此它們是唯物主義、和認知主義正確的明確證據。

因此,事實已經確立,不言而喻,思想是有趣的,所以我們所需要的,只是一個解釋。哲學家鼓勵神經科學家,用認知主義的術語,來解釋他們的結果。我認為,這與扭曲 AI 的方式,大致相同,它扭曲了神經科學。

三十年後,我們仍然對大腦的工作方式,一無所知。我們期望瞭解,我們如何思考、以及是什麼讓我們成為人類!然而現實是,參與眼球運動的細胞核,就多達30個! 

在沒有充分了解的情況下,大腦看似非常神奇。那麼,與其科學地,理解它們,為什麼不模擬它們,並獲得相同的權力呢?也許在模擬大腦上,進行實驗比實際大腦更容易,從而獲得理解。

從一開始,AI 就一直與 GOFAI 並行採用這種方法。這項研究的大部分,來自 McCullough 和 Pitts 的 1943 年神經元模型,鑑於當時的知識狀況,該模型,在生物學上是合理的。

他們指出,通過實施命題邏輯,這仍然是“思想法則” 的候選者。隨後的傳統研究,為 McCullough 和 Pitts 模型,增加了技術特徵,其動機是計算因素,而不是生物學因素。最重要的是誤差反向傳播演算法,它是當代“神經網路”和“深度學習”的核心特徵。

同時,神經科學對生物神經元的理解,更為複雜和準確。這兩項工作,存在分歧。因此,就目前的科學知識而言,AI “神經網路”,與神經網路完全不同。反向傳播本身,似乎在生物學上不合理。

該領域的每個人,都知道這一點,但高階研究人員,仍經常談論好像“神經網路”的工作方式,就像大腦一樣。我會在下文指出原因。

是什麼,讓你的研究計劃,充滿希望?我們的目標,是人類智慧,我們的神經網路,像人腦一樣工作。

你幾乎無法解釋,為什麼這些系統有效。這不是問題嗎?我們不知道,大腦是如何工作的,但他們確實如此,神經網路也是如此。

難道你不應該,更加努力地,找出它們的工作方式、時間和原因嗎?不,那是不可能的。大腦非常龐大;你不能分析地理解它們。

有人說,他們已經分析了,具體的“神經網路”,並弄清楚它們,是如何工作的。結果,他們做了一些無聊的事情,相當於 kNN,甚至只是迴歸。

但是,你看,我們已經在數學上,證明了神經網路,可以靈活地執行任何計算。像大腦一樣。我的手機也可以。是的,但手機不像大腦。

這可能有些誇張。但是,也是顯而易見的,有時預設的“像大腦一樣工作”,解釋了為什麼研究計劃,必須在整體上取得成功,並消除對細節的技術疑慮。

這似乎與 GOFAI 中的錯誤模式相似。我們知道,我們的“知識表徵”,不能像人類知識那樣,並且選擇忽略原因。當代“神經網路”研究人員,知道他們的演算法,與神經網路完全不同,並選擇忽略其原因。

GOFAI 有時對人類推理,提出誇大的說法;目前的機器學習研究人員,有時會對人類的直覺,做出誇大的宣言。

為什麼?因為研究人員,試圖通過技術實施,來證明先驗的哲學承諾,而不是提出科學問題。該領域用可量化的績效競爭,來衡量進展,而不是通過獲得的科學知識。

640?wx_fmt=png

設計

我認為, AI 研究人員的直覺,是正確的,實現、說明性的計算機程式,是強大的理解來源。但是這有什麼作用呢?將實現,類比化為科學實驗,是很誘人的,但通常它們不是。將它們視為工程解決方案很誘人,但它們通常也不是。我認為,“實現”最好被理解為設計解決方案。

人工智慧研究的實際做法,更像是建築設計,而不是電氣工程。通過這個角度觀察 AI,有助於解釋其反覆出現的破壞性炒作模式。

設計檢視,還可以通過消除技術難度、和浪費精力的主要來源,來改進 AI 實踐。

設計的本質

設計與工程一樣,旨在生成有用的工件。與工程不同,設計解決了模糊(特徵不明)的問題;不侷限於明確、合理的方法、開發時髦而不是最優的解決方案。

在工程中,你從一個明確指定的問題陳述開始。首先,分析它以得出指導過程的含義和約束。只有在你完全瞭解問題後,才開始組裝解決方案。

設計專注於合成,而不僅僅是分析。由於問題陳述含糊不清,因此沒有提供有用的指導意義;但它也沒有強烈限制,最終的解決方案。從過程的早期開始,設計從具體問題情況建議的可信部分,構建試驗解決方案。分析不太重要,並且大部分時間,都在過程中,以評估你的解決方案有多好。

由於設計問題,模糊不清,因此沒有最佳解決方案。設計成功,並不意味著你解決了特定問題,而是你產生了,既漂亮、又有用的東西。

設計實踐

640?wx_fmt=jpeg

系統的、明確的且合理的方法,在設計中是次要的。大多數都不適用於,模糊解決方案標準的模糊問題。專家設計師說,他們依賴“創造力”和“直覺”。這沒有用;它只是意味著,“我們不知道我們是如何做到的。”

事實上,設計能力,在很大程度上是隱性的、且不可理解的。因此,必須通過學徒制,來學習它。而不是在教室、或者通過讀書來學習。

然而,對設計實踐的實證研究,可以讓我們深入瞭解它的工作原理。

首先,設計師在整個過程中,需要與問題的具體細節打交道。相比之下,工程師主要在正式領域運作,從混亂中抽象出來。

可能的設計方法,被隱喻地提出。根據這些建議,設計人員構建了,一系列快速的原型模型,並試著來了解,它們的工作原理。

建築師用紙板建造模型;AI研究人員,通過程式碼構建它們。這些原型,不是工程模型,只是“草圖”,需要進行嚴格的實際測試。

Donald Schön 將這個迴圈,描述為“與材料的反思性對話”。讓模型再次提供具體性,指導下一步。你可以“看到”,它將如何工作、或不工作。

通過嘗試各種可能性,然後,通過迭代改進有前途的候選人,你可以建立,對問題空間的理解。獲得的理解,是解釋性的,但與一般的設計知識一樣,它是部分隱性的、不可理解的技術訣竅。

設計過程,反覆改變問題本身,整個問題,仍然是流動的。你認為,你想要完成的事情,會反覆變化。解決方案,定義了問題,反之亦然。你想在一般區域,創造一些時髦的東西;什麼東西“時髦”, 意味著只作為最終產品的具體屬性出現。

對於工程師來說,這似乎非常令人不滿意。確切地說明問題,弄清楚問題數量,並運用合理的方法,這樣會更好。

如果你能做到這一點,這通常是最好的方法。這就是工程有價值的原因。但是許多現實世界的情況,並沒有巧妙地解決明確定義的問題。

AI 研究作為設計實踐

640?wx_fmt=gif

如上文,關於 AI,作為工程的部分所述,AI 通常將模糊不清的方法,應用於具有模糊解決方案標準的模糊問題。(例如,使用神經網路,將普通話翻譯成英語。)至少在這種情況下,它類似於設計實踐。

如果你能解決問題,並證明正確性,你就是在做主流電腦科學,而不是人工智慧。沒有人能說出,翻譯的問題是什麼,也沒有最佳翻譯,這樣的東西。

但是,你作為人工智慧研究員的目標,是做得好,足以給人,留下深刻印象。那絕對是時髦的!

所以,你開始構建一系列,快速而骯髒的原型,並在一些普通話文字上,試用它們,以瞭解其工作原理。程式產生不同的、好的和壞的翻譯模式,可能很難準確地說出,這些模式是什麼,但是你逐漸建立了,對什麼有用、和為什麼有用的洞察力。

隨著你的進展,你的翻譯,甚至意味著變化的理解。這是你“與具體材料的反思性對話”,包括自然語言文字、和程式結構。

因此,在 AI 中,我們構建具體方案,以獲得理解,我們可能無法完全闡明。要發展 AI 的專業知識,你不能只閱讀論文;你必須閱讀,其他人的程式碼。不僅僅是閱讀,你還得重新實現這些程式碼。

你的部分理解,只能通過編碼本身來實現。在你自己從頭開始編寫反向傳播引擎之前,你真的不知道,神經網路是什麼,並且針對一些經典的小資料集執行它,並對其輸出,感到困惑。

技能不匹配

人工智慧研究人員,主要接受以正式問題,為輸入的領域:工程、數學或者理論物理。然而,我們要解決的問題,主要是設計方法。

你無法通過閱讀,或者從 Coursera,學習如何處理,課堂上的混亂。據我瞭解,目前,業內有一些,來自最好的學術 AI 實驗室的博士學習的學徒,不能學到任何其他關鍵內容。

在主要教授解決正式問題的技能之後,AI 人員往往會盡快擺脫模糊。而不是穿過沼澤的現實世界,允許資訊模式逐漸出現,逃離分析最近的可用抽象更為舒適。

因此,過早的問題形式化,是 AI 中一種特有的失敗模式。一個模糊的現實世界現象(例如學習),被一些數學(例如函式逼近)所取代。真實世界的單詞(“學習”),可以互換地應用於兩者,因此研究人員,甚至不會注意到差異。

然後,你可以擁有,各種有趣的發明、和改進時髦的小發明,以解決這個精確、但不準確的問題陳述。這可能,會帶來寶貴的技術進步。

另一方面,函式逼近,實際上並不是學習。過早形式化,意味著抽象數學問題的解決方案,可能不是具體現實問題的解決方案,反之亦然。

這導致兩種特有的麻煩模式。首先,抽象問題,可能比具體問題更難,因為它省略了關鍵的有用功能。在設計理論術語中,你沒有聽到,混亂所暗示的建議。

例如,GOFAI 基於計劃的實際行動的正式化,使問題變得更加困難,因為它拋棄了,對相關資訊的持續感知訪問。Phil Agre 和我編寫的程式,遠遠超出了規劃方法的能力,通過改變問題的陳述。

或者,抽象問題,可能比具體問題更容易。這可能導致,過度自信和炒作。在評估 AI 時,人們需要對研究人員,聲稱他們在問題“ X ”上取得快速進展,持懷疑態度。

他們是否真的,在研究現實世界的任務 X ?或者,他們是否正在解決,他們從 X 中,抽象出來的正式問題,並對其應用相同的名稱?例如,他們是否正在學習使用神經網路,將普通話翻譯成英語(現實問題)?或者他們是否在正式問題上,取得進展,這可能更好地,被描述為“在查詢表中儲存 n-gram 對”,在連續函式上,使用梯度下降?

當兩者之間的差異,表現為現實世界中表現不佳時,這會導致幻滅、和資金流失。

解決方案

640?wx_fmt=jpeg

我有兩個解決方案。首先,與現實世界的問題,保持緊密聯絡,並且不斷進行設計實踐。退回抽象解決問題的方法,比較整潔,但通常效果不佳。

其次:AI 是鹿角翼兔!AI 不僅僅是設計,它還是工程、數學、科學和哲學。當你在魷魚上,擠檸檬的同時,你會受到啟發,為時髦的魷魚形檸檬榨汁機,創造一個壯觀的新設計。

或者,你希望它很時髦。現在是時候,進行工程設計了:你能否讓它變得便宜、安全、耐用、可靠、易於使用且易於清潔?通過類比:你編寫了一個時髦的新函式逼近方法。

你希望每個人都使用它。這意味著,你必須解決所有棘手的錯誤、和效能問題,並在不同的現實場景中,表徵收斂和擴充套件。這可能需要困難的計算、和工程測試。

你已經研究了,與眼球運動相關的30個不同的細胞核,並開發了神經網路模型。你將其與機器人攝像機運動控制器,連線起來。很酷!

現在是科學的時候了:你能預測人類、或動物的眼球運動有多好?還有哪些其他模型,可以解釋眼球運動?如何測試哪種型號正確?

你對知識的心理表徵,有了新的理論。現在是哲學的時候了:你是什麼意思,“代表”和“知識”?這些都是不可避免的哲學問題,需要實質性答案。你不能用工程,來搪塞了。

640?wx_fmt=png

演示

640?wx_fmt=png

演示,是任何專業實踐的重要組成部分,包括科學、工程、數學、哲學和設計。

人們天生渴望,給他人帶來驚喜。你對自己的研究計劃,感到興奮,並希望分享給他人。你的研究,可能也受到特定信念的驅使,並且想要說服他人,是很自然的。

一場精彩的演示,可以在幾分鐘內,改變信念和整個思維方式,遠遠超過任何技術論述、或者邏輯論證。

此外,資源總是充滿競爭,比如金錢、關注度和聰明人。一場精彩的演示,比任何白皮書、或者資助計劃都更有效。

演示的成功標準,包括戲劇、敘事、興奮和(最重要的)行動激勵。娛樂業,是演示的天然家園。在那個行業(包括政治、新聞和職業摔跤等子行業)中,真相不是一個考慮因素。

在關注真理的學科中(應該包括人工智慧 ),人們必須設計,具有特殊責任感的示範。因為,演示是如此強大,所以,超越純粹的誠實,是道德上的迫切需要,以免你欺騙自己和他人。演示必須非常謹慎,不要誇大研究的確定性、理解力或者趣味性。

相關推薦

巨集AI 應該現在很多智慧

責編 | 胡巍巍出品 | CSDN(ID:CSDNNews)北京時間 8 月 23 日,在首屆中

巨集今天的現代化就是AI不夠AI化的企業將被取代

整理 | 非主流 出品 | AI科技大本營 9 月 17 日,上海世界人工智慧大會於上海西岸藝術中心開幕。百度創始人、董事長兼執行長李彥巨集在演講中提到,今天的現代化就是 AI 化,未來沒有任何一家企業可以與 AI 無關,對於現今絕大部分公司來說,當務之急是儘

巨集我為什麼退休?

  11月22日,由中國經營報社和中國社會科學院工業經濟研究所共同主辦的2011(第九屆)中國企業競爭力年會在北京召開。   百度公司創始人、董事長兼執行長李彥巨集在獲獎感言中表示,網際網路產業天生就是一個很受關注的產業,有兩個原因;第一,是變化很快,整個產業過去這麼多年

百度創始人巨集創業19年不斷冒險造就百度

“你在我國有電腦嗎?”   1992年,正在美國讀書,向校園請求計算機圖形研究生專案的李彥巨集,被面試他的一位教授這樣問道。   這個問題讓李彥巨集有些尷尬。由於教授的意思,不是他個人在我國有沒有電腦,而是我國有電腦嗎?   20多年後,登上電視節目的李彥巨集聊起這個論題,說自己其時就想

巨集我是百度創始人 絕對有說話的權利

李彥巨集2008年的天人交戰,是所有創業家到企業家的“凶險一躍”文/本刊記者 林濤 雷曉宇這還用問?當李彥巨集和賈樟柯坐在一起的時候,他身上的“明星特質”越發明顯了——年輕、富有、才智過人,以及讓女人在心底暗暗尖叫的清俊。三年前,這兩位山西名人一塊在老家太原參加活動。當時,李

巨集百度無人車收到罰單2018年實現量產

今天上午,百度創始人、董事長兼CEO李彥巨集在2017年百度世界大會上說,今年7月百度AI開發者大會之後,他被問的最多的問題,是自己坐無人車上北京五環有沒有吃到罰單,事實是確實收到了一張罰單。 外界對於無人車量產的時間表是2020年,百度“不滿足”,正在把這個時間提前。前不久百度剛剛宣佈和金龍汽車

巨集百度之父

百度:成功的標誌 2004年,百度搜索流量首次在中國超越Google,而且此後在中國市場上將這個全球巨擘遠遠甩在了身後;2010年3月15日,百度再次實現超越:在有全球資本市場風向標!之稱的納斯達克,百度股價首度超越Google,寫下納斯達克新

巨集百度吹過的牛逼今天實現了

今天,在北京進入桑拿天的 36℃ 裡,2018 百度 AI 開發者大會在國家會議中心正式舉行,在

科技圈熱門人物盤點爭冠軍馬化騰 AI造夢巨集

“90後”女大學生放棄北大保送復旦!她到底有多厲害?  東北網12月6日訊(記者 姜姍姍) 在東北農業大學有這樣一個自強不息的女大學生,她放棄北大直博被保送到復旦大學藥學院。她本科期間獲得國家獎學金、國家勵志獎學金、新東方自強獎學金、第一屆全國大學生生命聯賽國家二等獎……被評為黑龍江省“三好學生”。她就是生命

科技圈熱門人物盤點:爭冠軍馬化騰 AI造夢巨集

“90後”女大學生放棄北大保送復旦!她到底有多厲害?  東北網12月6日訊(記者 姜姍姍) 在東北農業大學有這樣一個自強不息的女大學生,她放棄北大直博被保送到復旦大學藥學院。她本科期間獲得國家獎學金、國家勵志獎學金、新東方自強獎學金、第一屆全國大學生生命聯賽國家二等獎……被評為黑龍江省“三好學生”。她就是生命

AI名利場·人物】巨集馬雲馬化騰三個男人的一出AI好戲

作者|宇伊           出品|遇見人工智慧        公眾號|GOwithAI把中國

百度騰訊齊刷刷強調“產業+AI巨集看深馬化騰見遠

李根 發自 凹非寺 量子位 報道 | 公眾號 QbitAI 這是一場不容錯過的分享。 如果烏鎮世界網際網路大會已讓你感到眾聲喧譁、無暇兼顧,那麼這場圍繞AI展開的對話也值得一觀。 對話嘉賓分別是騰訊當家馬化騰,以及百度當家李彥巨集,主持人則是高瓴資本當家張磊。 在這

巨集宣佈百度架構調整智慧雲事業部升級為事業群組

據國內媒體訊息,今天下午,百度宣佈公司架構調整,將智慧雲事業部(ACU)升級為智慧雲事業群組(ACG),同時承載 AI to B 和雲業務的發展。ACG 由尹世明負責,向張亞勤彙報,張亞勤同時繼續負責 EBG 和 IDG。 搜尋公司及各 BG 的運維、基礎架構和集團級共

巨集“相較AI網際網路思維已過時”

關注ITValue,檢視企業級市場最新鮮、最具價值的報道!本文轉載自微信公眾號“深響”,作者:亞

80後會有馬雲馬化騰巨集這樣的領軍人物?

遲到的80後 他們已基本失去成為網際網路一線領袖的機會,他們是遲到的80後, 所幸,這群年輕人並未頹廢,而是面對現實,腳踏實地,不再飄搖。 對於網際網路以至中國商業而言,他們姍姍來遲。 他們已不太可能取代70和60年代的人成為主流商業規則的制定者或標誌性人物。 為

全球首款L4級無人車量產吹過的牛實現了

大會 演講 展開 channel 預訂 英文版 blank 歷史 lex 去年,百度 AI 開發者大會,當陸奇一手撐住演講主場,李彥宏則坐著自動駕駛汽車跑上五環,臉上滿是輕松愉悅。那時的李彥宏或許沒有想過,他和陸奇合作的甜蜜期會離去的如此之快。 如今一年過去,同樣的季

為了智慧駕駛巨集要改造城市道路了

  10 月 18 日,在世界智慧網聯汽車大會上,百度 CEO 李彥巨集提到:當汽車變得越來越智慧,道路的基礎設施也必須跟著變,必須進行改造。 李彥巨集在發言中表示,“很多自動駕駛汽車都是需要依賴極其昂貴的鐳射雷達來實現的,如果每一輛車都配一個雷達,每一輛車的成本都會增加

為了智慧駕駛巨集要改造城市道路

  10 月 18 日,在世界智慧網聯汽車大會上,百度 CEO 李彥巨集提到:當汽車變得越來越智慧,道路的基礎設施也必須跟著變,必須進行改造。   李彥巨集在發言中表示,“很多自動駕駛汽車都是需要依賴極其昂貴的鐳射雷達來實現的,如果每一輛車都配一個雷達,每一輛車的成本