正在閱讀: 人工智慧倫理三問
作者:袁 勇
當前,人工智慧浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智慧技術的不斷髮展,它引發的倫理爭議也不斷出現
近日,中國發展研究基金會發布報告——《未來基石——人工智慧的社會角色與倫理》。針對人工智慧倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。
對人工智慧的討論足夠了嗎
迄今為止,我們對人工智慧可能會帶來的挑戰仍知之甚少,嚴肅的公共討論還十分缺乏
要理解人工智慧的社會影響,首先要認識人工智慧在社會發展中的獨特作用。在人類發展程序中,知識的增長和社會協作體系的擴充套件起到了重要作用,而這一切都離不開人類大腦提供的智慧基礎。
報告認為,人工智慧的發展,將帶來知識生產和利用方式的深刻變革,人工智慧不僅意味著前沿科技和高階產業,未來也可以廣泛用於解決人類社會面臨的長期性挑戰。從消除貧困到改善教育,從提供醫療到促進可持續發展,人工智慧都大有用武之地。
例如,人工智慧可以大幅度降低醫療服務的成本,緩解醫療人才不足的局面。在教育領域,人工智慧能夠分析人們獲取知識的方式,然後利用這些資訊開發出相應模型,來預測人們的投入和理解程度。人工智慧還可以改變貧困地區高水平教師不足、教學質量低下的局面,促進教育公平。
此外,人工智慧可以服務於殘障人士。例如,微軟最近在ios應用程式商店推出了一款名為“seeing AI”的產品,幫助失明和弱視人群應對日常生活中的問題。“seeing AI”的開發團隊包括一名在7歲時就失明的工程師,這一應用程式儘管還處於早期階段,但已證明人工智慧可以捕捉使用者周圍的影象並即時描述。比如,它可以讀取選單、清點貨幣等,從而幫助殘障人士提高生活能力。
然而,迄今為止,我們對人工智慧可能會帶來的挑戰仍知之甚少,嚴肅的公共討論還十分缺乏。社會公眾對人工智慧的想象在很大程度上仍被科幻小說和影視作品所主導,而對於人工智慧在未來可能產生的影響,更是缺乏認知和關切。在政策層面,對於人工智慧的關注很大程度上仍集中於技術和經濟層面,缺乏整體性的思考和討論。儘管有少數哲學和社科領域的學者開始關注人工智慧帶來的倫理問題和社會挑戰,但這些討論並未進入公共政策視界,而且討論的重點也多集中在超級人工智慧這樣仍相對遙遠的議題上。
報告認為,在人工智慧問題上,圍繞可能出現的挑戰,無知、忽視、偏狹、誤解交織在一起,可能會導致真正的風險。
人工智慧會帶來哪些倫理挑戰
從人文視角來看,人工智慧帶來了一些有可能撼動社會基礎的根本性問題
中國發展研究基金會副理事長兼祕書長盧邁表示,人工智慧發展將進一步釋放社會活力,中國應積極擁抱人工智慧,充分利用好它對生產力的解放效應。但是,把握機遇的前提是瞭解並預防風險,這需要我們在倫理學和社會治理上下功夫。
中國發展研究基金會祕書長助理、研究一部主任俞建拖認為,社會應該正視人工智慧帶來的挑戰,並超越純技術和經濟的視角,從社會和人文視角去探討人工智慧帶來的影響。
報告認為,從人文視角來看,人工智慧帶來了一些已經在發生或即將發生、有可能撼動我們社會基礎的根本性問題。
隨著人工智慧的不斷髮展,我們對於人的理解越來越物化和去意義化,人和機器的邊界越來越模糊,我們需要思考這種邊界模糊的後果。我們該如何對待機器和自身的關係?人和機器應該整合嗎?如果人對快樂和痛苦的感受可以通過其他物理和化學手段來滿足,那麼,人還有參與社會互動的需要和動力嗎?
人工智慧還帶來了新的社會權力結構問題。藉助人工智慧,企業可以賦予每個使用者大量的資料標籤,並基於這些標籤瞭解人的偏好和行為,甚至超過使用者對自己的瞭解,這是巨大的權利不對稱。
此外,人工智慧可能會造成偏見強化。在社交媒體中,人工智慧將觀點相近的人相互推薦,新聞推送也常常存在路徑依賴。當人們的資訊來源越來越依賴於智慧機器,偏見會在這種同化和路徑依賴中被強化。
人工智慧還使社會的資訊和知識加工處理能力被極大放大,資訊和知識的冗餘反而使人陷入選擇困境。如果人蔘與社會互動的次數和範圍縮小,而人工智慧越來越多介入到知識的生產中,知識與人的需求之間的關係將變得越來越間接,甚至會反過來支配人的需求。
儘管人工智慧也會推動進一步的專業化分工和創造新的工作機會,但並非所有人都有能力邁過技術性和社會性壁壘。尤瓦爾·赫拉利在《未來簡史》中警告,未來社會可能會出現“無用階級”,這種擔心並非全無道理。
人工智慧也對傳統的法律法規和社會規範提出了挑戰。譬如,無人駕駛汽車一旦出現事故,我們究竟該歸因於開發產品的企業、產品擁有者還是人工智慧產品本身?
如何構建人工智慧的倫理規範
考慮到人工智慧的深遠影響,需要全社會共同努力,制定開發和應用的倫理規範和政策方向
人工智慧正幫助人類社會向充滿不確定性的未來疾馳。在衝進未知之門之前,需要給它裝上剎車,讓它真正能行穩致遠,這個剎車就是倫理規範和公共政策準則。
當前,已經有一些人工智慧領先企業關注人工智慧開發和應用的倫理問題。微軟公司總裁施博德表示,要設計出可信賴的人工智慧,必須採取體現道德原則的解決方案,因此微軟提出6個道德基本準則:公平、包容、透明、負責、可靠與安全、隱私與保密。谷歌公司也表示,在人工智慧開發應用中,堅持包括公平、安全、透明、隱私保護在內的7個準則,並明確列出了谷歌“不會追求的AI應用”。
報告認為,這些企業的前瞻性探索十分重要。但是,考慮到人工智慧對未來社會的深遠影響,還需要全社會和各國政府的共同努力,制定人工智慧開發和應用的倫理規範和政策方向,為其未來健康發展奠定基礎。
為此,報告提出了一系列建議:在社會層面,高校和研究機構開展前瞻性科技倫理研究,為相關規範和制度的建立提供理論支撐;各國政府、產業界、研究人員、民間組織和其他利益攸關方展開廣泛對話和持續合作,通過一套切實可行的指導原則,鼓勵發展以人為本的人工智慧;人工智慧企業應該將倫理考量納入企業社會責任框架中;投資機構應將倫理問題納入ESG(環境、社會和治理)框架,引導企業進行負責任的人工智慧產品開發;社會組織可以通過培訓、釋出倫理評估報告、總結代表性案例等方式,推動人工智慧倫理規範的構建。
報告建議,在公共政策層面,人工智慧研發和應用的政策應該將人置於核心,滿足人全面發展的需求,促進社會的公平和可持續發展;政府需要設立專項資金,支援大學和研究機構開展人工智慧等前沿科技的倫理研究;政府還需要給予不同人群以學習瞭解人工智慧的機會,推動全社會對人工智慧的知識普及和公共政策討論;優先鼓勵人工智慧應用於解決社會領域的突出挑戰,包括減少貧困和不平等,促進弱勢群體融入社會並參與社會發展程序;應組建由政府部門和行業專家組成的人工智慧倫理委員會,對人工智慧的開發和應用提供倫理指引,並對具有重大公共影響的人工智慧產品進行倫理與合法性評估。
此外,對於人工智慧的規範發展也需要更廣泛的國際合作。清華大學公共管理學院院長薛瀾表示,“人工智慧的發展將在創新治理、可持續發展和全球安全合作3個方面對現行國際秩序產生深刻影響,需要各國政府與社會各界從人類命運共同體的高度予以關切和迴應。只有加強各國之間的合作與交流,才可能真正構建起一套全球性的、共建共享、安全高效、持續發展的人工智慧治理新秩序”。