人工智慧監管指南
隨著人工智在日常生活中愈發普及,AI監管的問題也逐漸浮出水面,日漸棘手。本文翻譯自文章《Point: Should AI Technology Be Regulated?: Yes, and Here's How》,文中首先提出AI監管勢在必行,其次闡釋了監管的重點和難點,接著分析介紹了規範人工智慧的5條指南,旨在為相關部門的決策提出建議。文章最後,點明人工智慧監管中最棘手之處在於:它不僅是一個技術問題,而且是一個社會學問題,並呼籲倫理學家等多方學者參與,共同來解決AI監管難題。現由學術plus編譯,僅供參考。文章版權歸原作者所有,觀點不代表本機構立場。
作者:Oren Etzioni ([email protected]),華盛頓大學教授,艾倫人工智慧研究所(Allen Institute for Artificial Intelligence) CEO。
釋出日期:2018年12月
譯者:學術plus評論員 張濤
來源:https://cacm.acm.org/magazines
AI技術應該被監管嗎 ?如何監管?
政府監管對於預防帶來的傷害是非常必要的。但監管是一種非常緩慢的過程,且很容易受到政治的干預。而且,當監管應用於人工智慧等快速發展的領域時,錯位的監管可能會扼殺創新,破壞人工智慧帶給我們的巨大的潛在好處,比如提高無人駕駛汽車的安全性、提高生產率等等。埃隆·馬斯克(Elon Musk)曾敦促美國政府儘早對人工智慧進行監管,但我們也不希望監管阻礙技術的創新和發展。
為此,研究人員提出了一個折中的方法:即避免過度監管人工智慧的研究, 重點監管和關注人工智慧在交通運輸、醫學、政治和娛樂等領域的應用。 這種方法不僅平衡了人工智慧研究帶來的好處和人工智慧系統可能的潛在危害,而且更具可操作性。
監管AI到底有多棘手?
人工智慧席捲全球的趨勢勢不可擋。如何監管卻成了棘手的問題。
監管AI存在的第一個問題就是如何定義AI?
曾經的AI只是一個國際象棋遊戲機,但是現在,AI已融入我們的社交媒體、汽車、醫療裝置等之中。技術進步的速度太快,並且迅速地融入我們的生活中, 導致機器和智慧機器之間的界限開始變得模糊不清。
比如“傷害(harm)”的概念就很難被納入演算法中。自動駕駛汽車可以大幅減少高速公路事故,但同時人工智慧也可能會造成一些事故,而且人工智慧造成的事故比普通的人為事故更容易使人受到傷害。因為AI沒有常識,所以可能會刪除尚未備份的博士學位論文。墨菲的人工智慧定律是,當你給AI一個目標時,無論你是否喜歡它實現其目標的含義,AI都會做到這一點。人工智慧在定義諸如“傷害”等模糊的概念方面幾乎沒有常識。
監管雖然很難,但是必須監管。那應該採取哪些規則來解決過多、而且不充分的監管問題呢?本文建議從以下5個方面著手:
規範AI應用的5個指南
1 不要將AI武器化
首先是制定針對人工智慧武器和網路武器的法規。馬斯克在給聯合國的一封信中說:“自主武器(autonomous weapons)開發出來後,將會使武裝衝突的規模比以往任何時候都大,而且時間比人們想象地更快。自主武器可能會被用作恐怖武器,也可能被暴君和恐怖分子用來對抗無辜的平民。所以我們不應該建立應用AI技術的殺戮機器。因此,第一個監管原則是:“不要將AI武器化。”
2 法律約束
第二個指南是人工智慧應受到適用於人類操作員的全部法律約束。如果說“the AI did it”即必須意味著作為AI的所有者、操作者或構建者的人們做到了。作為AI的所有者、操作者或構建者,即負責任的一方,必須確保AI不會傷害任何人;一旦對別人造成了傷害,就應該承擔責任。但是如果造成了傷害,應該可以區別出來是AI的擁有者,或者是生產商的責任,但是目前並沒有完善的法律體系來應對這種情況。
3 明確告知“自己是AI”
AI應明確告知他人,自己是AI。這意味著Twitter聊天機器人、撲克機器人和其他人必須將自己標識為機器,而不是人。因為,已經有政治機器人對新聞文章發表評論,併產生不和諧的宣傳聲音。
4 未經批准不得保留或披露機密資訊
第四條指南是,未經訊息來源事先明確批准,AI不得保留或披露機密資訊。比如從Amazon Echo,Google Home和智慧電視中收集的資料,或是看似無害的掃地機器人也可能建立精確的室內地圖。未來隱私問題只會越來越多越來越尖銳,需要更嚴格的隱私政策來保護人們及其資訊。
5 消除偏見
AI應用程式規則的第五個指南是AI不得增加或放大系統中已存在的任何偏見。 現在AI使用過去的資料來預測未來。假如,資料顯示白人違約率為60%,而有色人種違約率只有20%,那麼種族資訊就對演算法很重要。
與AI相關的另一個相關問題是,所有形式的AI(包括機器人,自治系統,嵌入式演算法)必須具有 問責性、可解釋性和透明性, 以便人們能夠理解機器所做出的決策。美國的各州可以使用預測演算法來計算囚犯未來構成的風險,並在法庭審判中用做量刑建議。人工智慧和演算法會用於決定誰可以訪問公共服務以及誰接受執法部門的額外審查。所有這些人工智慧和演算法的應用都提出了關於人權、系統性偏見和長期存在的不公平的棘手問題。
這也引出了人工智慧監管中最棘手的問題之一:即它不僅是一個技術問題,而且是一個社會學問題,需要倫理學家和其他各方參與使用他們的專業知識來解決監管難題。
如何進行監管?
和其他法律法規一樣,單一的監管機構是不可行的,而是應該嵌入現有的監管機制之中。
比如,假設我有一輛無人駕駛汽車發生了事故。如果這是我的車,我就會被認為應該負責。但可能是汽車技術工藝存在缺陷才導致的事故,在這種情況下,製造商應該分擔責任。因此,無人駕駛汽車應該遵守與我們人類相同的法律,受聯邦機動車輛安全標準(Federal Motor Vehicle Safety Standards)和機動車駕駛法律的監督。
有些人可能會問: 電車難題(trolley problem)怎麼處理呢? 如何對汽車進行編碼來確定如何在電車難題中做出抉擇呢?這並不是一個工程問題,而是一個哲學思想問題。實際上,無人駕駛汽車將減少事故中受傷或死亡的人數;由於演算法做出選擇而導致某人受傷的極端情況只佔事故的一小部分。以谷歌的自動駕駛Waymo為例,它在美國已經行駛超過200萬英里,200萬英里只有一次事故。其安全行駛率比任何駕駛員都低,大約比60-69歲的人低10倍,比新司機低40倍。
人工智慧越來越普及,但是現有的監管機構尚未開始監管。但應該儘早識別這些應用程式,並確定監管機構來實現監管目標。我們必須認識到法律法規的目的是 保護人類和社會免受傷害 。可以通過人工智慧的合作平臺和研究組織作為其對對人類和社會影響的討論和參與的開放平臺。蘋果和艾倫人工智慧研究所等機構正在合作制定人工智慧技術的最佳實踐;紐約大學的AI Now研究所和哈佛大學的Berkman-Klein中心也正致力於制定人工智慧的道德準則。
儘管監管AI難度很大,但在享受技術便利的同時,也要肩負起應有的責任。
英文版:https://cacm.acm.org/magazines/2018/12/232893-point-should-ai-technology-be-regulated/fulltext
宣告:本文來自學術plus,版權歸作者所有。文章內容僅代表作者獨立觀點,不代表安全內參立場,轉載目的在於傳遞更多資訊。如需轉載,請聯絡原作者獲取授權。