1. 程式人生 > >人工智慧與倫理問題淺談

人工智慧與倫理問題淺談

第一章 緒論

一,提出問題

人工智慧(Artificial Intelligence,縮寫為AI)一詞,是在1956年的達特茅斯會議上被首次提出來的。作為一門新興的交叉學科,人工智慧在當今腦科學、認知科學飛速發展的基礎下,被稱為本世紀三大科技成就之一。目前來說,人工智慧主要涉及計算機領域,它試圖瞭解人類智慧的實質,進而能夠生產出一種媲美人類智慧的軟體系統、機器人、仿生人或者生化人,最後乃至能夠全面超越當今人類的“新人類”。
當然,後面的設想,也僅僅停留在科幻小說之中。目前,人工智慧技術主要運用在醫療診斷、交通運輸、教育、執法刑法、網際網路等領域之中,為很多傳統行業帶來了新的轉機。
但是,這些轉機背後,也隱藏著許多有關於科技的倫理問題,引發了社會上的爭議。因此,這篇文章著重與人工智慧的衍生應用和未來世界中的真正“人工智慧”,對這種可能產生的科技倫理問題做一個簡單的探討。

二,研究意義

作為二十一世紀新興技術,人工智慧如今不可謂不流行。本人作為計算機專業的一名研究生,同時也作為一個科幻文學的愛好者,對這項技術可能引發的倫理問題也是非常感興趣。而對這樣的科技倫理問題進行探討,不僅可以對人工智慧技術進行闡述,同時也對這其中的一些倫理悖論提出一些自己的見解。

第二章 人工智慧技術

一,人工智慧的定義

人工智慧就是在各種環境中模擬人的機器。人工智慧如同許多新興的學科
一樣,至今也沒有一個統一的定義。“下一個一般性的定義幾乎是不可能的,因
為智慧似乎是一個包含著許多的資訊處理和資訊表達技能的混合體。”主要是因為主要是因為不同的學科從各自的角度看,不同的學科從各自的角度看,下的定義也不一樣。在有的領域,人工智慧可能是流水線上的巨型機器人,而在另一個領域,人工智慧可能是伺服器上執行的一個小小的Python指令碼。另外,最根本的一點就是人工智慧的(如聽覺、視覺、知識的表達等等)本質或是機制是什麼,人們目前還不是清楚。普遍來說,如果一個系統能夠通過圖靈測試,那麼它也就基本滿足了人工智慧的基本屬性。

二,弱人工智慧與強人工智慧

(一)弱人工智慧
弱人工智慧指的是利用設計好的程式對動物以及人類邏輯思維進行模擬,指的智慧體表現出與人類相似的活動,但是這種智慧體缺乏獨立的思想和意識。目前就算最尖端的人工智慧領域也僅僅停留在弱人工智慧的階段,即使這種人工智慧可以做到人類難以完成的事情。甚至有人工智慧學者認為,人類作為智慧體,永遠不可能製造出真正能理解和解決問題的智慧機器。就我們目前的生活來看,這種弱人工智慧已經完全融入到了我們的生活環境之中:譬如手機中的語音助手、智慧音箱等等。但是說到底,這些只是工具,被稱為“機器智慧”或許更為貼切。
(二)強人工智慧
強人工智慧不再是僅僅侷限於去模仿人類的低等行為,這種人工智慧被認為具有真正獨立的思想和意識,並且具有獨立思考、推力並解決問題的能力,甚至這種人工智慧具有和人類類似的情感,可以與個體進行共情。強人工智慧觀點的倡導者指出,具有這種智慧級別的事物,已經不再是人類所開發的工具,而是具有思維的個體,從本質上來說已經和人類沒有差別了——因為人類也不過是一臺有靈魂的機器而已。既然機器有了靈魂,為何不能成為“人類”?這其中更是設計到了“何為人”的哲學探討,這種探討在諸多的科幻小說也多有描述,其中重要的載體就是這種“強人工智慧”。雖然強人工智慧和弱人工智慧只有一字之差,但就像物理學中的強相互作用力和弱相互作用力一樣,二者含義有這巨大的差別:這種“強”其實是一種斷層式的飛躍,是一種哲學意義上的昇華。

三,技術應用與倫理問題

(一)機器學習
顧名思義,機器學習就是機器模仿人類去進行學習,獲取知識。這種學習,本質上是對人為建立好的模型(model)進行訓練,通過自動或被動的獲取知識,不斷的進行自我的更新迭代,優化模型。具有自我學習能力,是人工智慧的基礎。 很多科幻題材中也提到,這種默不作聲的自我學習,可能會使得人工智慧獲得自認為“正確”的邏輯而做出對人類乃至人類整體有害的事情。譬如,對於一個新生的人工智慧,當它在進行自我學習與更新中,偶然間瞭解到了人類的歷史,發現對人類生命造成最大傷害的是戰爭,而戰爭又是人類所引發的。在陷入這種邏輯困境後,人工智慧可能會得出一個“完美”的解決方案:為了保護“人類整體”不再受到傷害,就要將“人類”這一物種從地球上抹去。而這整個過程人類一無所知,最後的結局也就不言而喻。
不過目前來說,這種機器學習還僅僅停留在弱人工智慧的階段,但是在不遠的未來,這種自動學習的行為與可能造成的結果,也是值得我們人類去時刻關注的。
(二)機器人
美國機器人研究院對“機器人”這一名詞所下的定義為,機器人是一種可再程式設計的多功能裝置,而這個詞語 “Robot”,則是於1920年,捷克作家卡雷爾•恰佩克(Karel apek)通過劇作《羅素姆的萬能機器人》將“造人”科學家的個人悲劇放大為全體人類的末世審判。大眾所熟知的Robot(機器人)一詞便源於該劇,詞源為波蘭語的“強迫工作”(Robota)和“工人”(Robotnik)。
顯而易見,該詞隱喻了機器人服務人類的勞工地位。後來,這些機器人不再服從奴役,轉而發動了戰爭消滅了人類。這樣的場景在很多科幻作中都得到了復現。這類作品所持有的觀點認為,雖然人類好逸惡勞、貪圖享樂的本性使得以機器人為載體的人工智慧在一開始會得到廣泛的接受和使用,但是隨著這種技術的進步而引發的不確定性風險加劇,一旦這種人工智慧站到了人類的對立面,人類將會受到滅頂之災。

本章小結

由人工智慧所衍生出的技術還有很多,其中潛在的倫理問題與風險也值得我們去深入的探討。時至今日,關於“人工智慧威脅論”的觀點有太多的支持者,像我們所熟知的比爾蓋茨、埃隆馬斯克包括已故的斯蒂芬霍金,都對當今社會大力發展人工智慧技術抱有一種謹慎觀望甚至反對的態度。諸多有關人工智慧滅世的影視作品也是層出不窮。這種對“人工智慧引發天啟”的悲觀態度其實是想傳達一個道理:如果人類想要在人工智慧這一領域進行深入研究發展,就必須建立起一個穩妥的科技倫理,以此來約束人工智慧的研發方向和應用領域。

第三章 人工智慧與倫理

一,功利主義

功利主義(utilitarianism),是一種把實際效用或者利益作為行為的評價標準的行為學說。功利主義用行動後果的價值來衡量行為的善惡。避苦求樂、趨利避害是人的本性。使人不開心、不快樂的就是惡的,使人快樂、幸福的就是善的。這種價值觀把行動的結果作為倫理考慮的主要因素。也就是說,功利主義者把增減每個人的利益總量作為評價一切行為的善惡的標準。如果能夠增加每個人的利益總量,那麼行為就是善的;如果一個行為減少每個人的利益總量,那行為就是惡的。一個行為是增加還是減少社會利益總量,是評價道德的終極標準。
功利主義學說中有一個重要的論證:奴隸制度。關於奴隸制度,功利主義者人為,如果一個社會的奴隸制度能夠增進每一個人的利益的總和,那麼這種奴隸制度就是道德的、值得提倡的。

二,奴化控制

就目前的人工智慧概念來看,不管是在科學研究中,還是在科幻作品裡,人們都傾向於將人工智慧描述為人類的得力助手,是以服務人類為主旨的存在。而即使是在將人工智慧視為人類威脅的文學作品中,以奴隸、僕從身份出現的人工智慧在最開始也是被廣泛接受的。這也暗示了一個進本的倫理關係:人工智慧天生就是人類的奴僕。從這一角度來看,人和人工智慧分屬兩種生命形式,後者沒有理性和靈魂,只能算是有生命的工具。人類作為高等智慧生命可以奴役低等生命,而不用揹負道義上的責難。而從功利主義的角度來看,對於整個社會而言,利益總和是增加的,因此這種奴役是完全道德、可接受的。
但是,這種人類中心主義的倫理學在處理人與人工智慧之間的關係時,有這很大的侷限性,因為這種倫理制度是建立在人較於人工智慧是高階的、強力的基礎之上的。這種叢林式的強者邏輯在科技進步到一定程度時,很可能發生顛倒。當人類難以脫離人工智慧而獨立生活時,就已經很難區分兩者之間的控制關係:各方面都要依賴於人工智慧的“造物主”,與各個方面都勝過人類的“被創造物”誰才是真正的主人?
關於這種主僕奴役逆轉困境,人工智慧領域的從業者人為,只要能設計出邏輯絕對完善的程式,就能完全控制人工智慧。相關的文學作品對此也多有思考,最有名的莫過於阿西莫夫所提出的 “機器人三定律”了:“第一,不傷害定律:機器人不得傷害人類,也不得見人受到傷害而袖手旁觀。第二,服從定律:機器人必須服從人的命令,但不得違反第一定律。第三,自保定律:機器人必須保護自己,但不得違反一、二定律。”這三條定律在製造機器人的伊始便被嵌入其大腦,永遠無法消除。
但實際上,這種以預先設定倫理邏輯並嵌入的方式,並不能夠解決主僕奴役問題。首先,很多倫理問題連人類自身都沒有解決方案,由人類定義的倫理邏輯又怎能沒有漏洞?微不足道的邏輯漏洞,在人工智慧發展到一定程度後卻可能成為壓倒整個倫理系統的稻草。另外,這種倫理邏輯在複雜的現實生活中未必可行。就連阿西莫夫自己也對這種三定律產生的倫理漏洞做過很多文學上的探討。整個基地系列的小說也是建立在所補充的“第零定律”的基礎之上的:機器人不得傷害人類整體,或袖手旁觀坐視人類整體收到傷害。而“人類整體”這一概念的界定又是什麼,很難去闡述。在後續的幾部機器人作品中,也都是圍繞著這一“第零定律”而展開的。有意思的一點是,這條“第零定律”並不是人類提前嵌入到機器人的“正子腦”中的,而是機器人自身發覺三定律的倫理漏洞,“正子腦”發生短路而自我生成的。然而,這個機器人自我生成的“第零定律”卻在整個銀河帝國不可避免的衰亡過程中,保證的人類第二帝國的產生,並維持了“人類整體”的延續。這樣看來,誰是主而誰又是僕呢?

三,情感倫理

人類的情感可謂是世界上最複雜的事物之一。情感本身無關乎與載體,只要它是真誠的,那麼它就是最真切的情感。在一部名為《Her》的電影中,就深刻地探討了沒有人類作為載體的一段愛情,到底是不是真實的感情。
在電影中,男主人公有著一個與他完美契合、百般包容他的人工智慧,“她”可以不斷的進行自我學習,通過強大的計算能力為主人公提供了慰藉,而主人公也慢慢對這個它產生了愛情。開始與“她”相處的美好,讓主人公開始忘了他們在本質上根本不一樣。雖然他接受了“她”是人工智慧的事實,但是仍然以人類的想法去覆蓋“她”,以人類的品質去期望“她”。在影片的最後,這一假象終究破裂了,他們終究是千差萬別的。他是個人類,只有一個大腦去思考,也只有一顆心去愛一個物件。而“她”,是同時可以進行一萬項工作、同時和三千人交談、同時愛著無數人的一個人工智慧,一個系統罷了。對“她”來說,這其中根本沒有什麼正確與錯誤。而其中的倫理道德,誰是誰非,很難去評判。
當人工智慧與人類打破主僕關係這層枷鎖時,二者就已經擁有了可以平等對話的機會。亞里士多德曾說:“奴隸是有靈魂的工具,工具是無靈魂的奴隸。”當作為“工具”的人工智慧開始擁有“靈魂”、擁有“思維”、擁有“情感”時,它們也就脫離了純工具的範疇。妥善處理人工智慧與人類之間可能產生的情感與羈絆,也是人工智慧倫理研究的重要一環。

四,“人”的定義

何為人,何為人性,這是一個無解的問題。當有一種事物,它看起來是人類,動作行為反應都和人類別無二致,那麼我們是否將其看作是人類呢?
究竟是自然遺傳屬性,還是社會文化屬性決定了“人”的身份?類人外衣下的人工智慧,能否稱為“人”?喪失思考能力的人類,又能否稱為“人”?當人工智慧發展到一定階段之後,定義“人”的話語權又會不會落到它們手中呢?
就像我們所熟知的《木偶奇遇記》,儘管匹諾曹經歷了各種冒險,改掉了撒謊的壞習慣,也具備了作為“人”而應該具備的美好品德,但倘若他沒有遇到仙子,就算經歷千辛萬苦,最後也不會變成真正的“人”。其實,隨著科技的發展和時代的變遷,關於“人”的定義也是在不斷的進行轉變的。古希臘文學中的斯芬克斯之謎,實際上是一個如何區分人與獸的哲學命題,隱喻人類文明程序的開始。
著名科幻電影《銀翼殺手》結尾處,人造人出手救了前來殺死自己的主人公,並在自己彌留之際對主人公說道:“我所見過的事物,你們人類絕對無法置信。我目睹戰艦在獵戶星座的端沿起火燃燒,我看著C射線在唐懷瑟之門附近的黑暗中閃耀,所有這些時刻,終將流失在時光中,一如眼淚消失在雨中。死亡的時刻終於到了。”
恐怕“何為人”這種超越人類本身的倫理問題,其答案也只能由超越人類的事物所給出了。

本章小結

人工智慧是人類的創造物,只不過現在這個創造物仍處在蹣跚學步的階段,需要人類的引領和教導。而在人工智慧不斷完善的過程中,人類不是上帝,引發的科技倫理問題以及背後更深層次的思考更是值得我們去注意的。人工智慧就像一列剛剛起步的火車,而人類就像是站在站臺上的乘客。雖然現在看來這列火車慢慢吞吞、遙不可及,但是當這列火車加速完成後,站臺上的乘客看到的,可能就只是一道飛馳而過的影子了。到那個時候採取考慮其中的倫理問題,怕是為時已晚。

第四章 總結

作為一門新興學科,人工智慧所涉及到的普通科技倫理問題,諸如無人駕駛汽車問題、資料隱私問題、軍事機器人倫理問題,隨著科技的發展,很快都會有完善的解決方案。對於功利主義者而言,“人類中心主義”將是發展人工智慧的重要倫理依據:必要的領域應該限制機器的智慧超過人類的智慧,即使將來某一天超過了,掌握權還要在人類的手中。但是這種“物我兩分”的價值觀,本質上還是奴化控制的“主奴思想”。在人工智慧可能超過人類的語境下,可能並不是最好的解決方案。俗語說,堵不如疏。倘若人類真的要在人工智慧這條路上走下去,將倫理的判斷完全掌握在人類手中或是全權交給“更智慧”的人工智慧都是不可行的;將人類自身與人工智慧放到統一的維度去審視,方能產生一個相較而言最為完善的人工智慧倫理關係。

參考文獻:
[1] 人工智慧技術應用的倫理問題研究-楊帆
[2] 科幻文學中的人工智慧倫理-呂超
[3] 強人工智慧定義-百度百科
[4] 人工智慧帶來的倫理與社會挑戰-周程,和鴻鵬
[5] 如何評價電影《她》(her)-知乎使用者?
[6] 為什麼《銀翼殺手》是科幻片歷史上非常重要的作品?-知乎使用者