人機協作只需技術?AI想獲取人類信任,或許還需要一點套路
本文轉自公眾號:腦極體(ID:unity007),作者:我堂堂一個熊貓
我們都相信,或許未來我們都要以人機協作的方式生存。傳說中能夠代勞一切的終極演算法顯然一時半會兒不會出現,但人類和機器人一同勞作已經成為可能,人類也會接受越來越多來自於機器提供的服務。
如果說在人機協作上,AI技術能力的成熟與否是第一前提,那麼第二前提就是人類和機器之間的信任關係了。
今天的我們總是在關注第一前提,並且取得突飛猛進的進展,但往往忽略第二前提的重要性。想象一下,要是人類和機器之間無法形成信任關係,人機協作的未來將會怎樣?
律師所的律師靠AI蒐集整理資料,但AI蒐集完了以後,律師又不放心,重新把AI助手的工作又檢查一遍,最後其實浪費了更多的時間。而如今廠商們所宣傳的理想中的自動駕駛,是人一上車就躺下休息,而自動駕駛會把乘客安全的送達終點。可如果人類不信任自動駕駛,這一畫面就變成了人類上了車立刻進入緊張狀態,像駕校司機一樣緊盯路況還時不時對AI的駕駛技術表示嫌棄。這樣一來,肯定是有悖於AI提升工作效率的初衷的。就連“網紅機器人”索菲亞都說,為了共建人類和AI之間的信任,應該少拍點機器人與人類為敵的電影。
“不道德”的AI,你能相信嗎?
但首先我們要弄明白一個問題,人類真的會很難和AI建立起信任關係嗎?想想看,我們似乎天生就相信烤箱會把食物加熱而不是讓食物有毒,也相信冰箱會用低溫儲存食物而不是讓食物變質。難道到了AI這裡就不靈了嗎?
這其中的差異,在於心理學上的“釋義法則”,即人們會更容易信任他們能夠理解其原理的技術。烤箱的高溫、冰箱的低溫,其實都是千百年以來我們非常熟悉的處理食物的方式了。不信換成微波爐,這麼多年了還有人質疑它會“輻射”食物。
AI就更是如此,加上神經網路的黑箱特徵,人們很難從理解原理這一層面上去信任AI。
同時當AI進入我們生活中的方方面面時,難免會在進行決策時遇到道德問題。最典型的“人行橋困境”就是如此,鐵軌上綁著五個無辜的人,火車即將壓過他們的身體,這時如果把人行橋上的一位大漢推下橋去,就可以阻止火車向前拯救鐵軌上的五個人。那麼究竟該不該犧牲一個人的姓名拯救五個人?在現實中雖然不太會出現這種極端情況,但有沒有可能自動駕駛在行駛時為了不發生剮蹭而碰撞到過路的動物?這時是損害車還是損害路過的小動物,也是一種道德困境。

面對這種狀況,哲學上有一種說法叫“後果論”,即認為計算結果才是做出道德決策的正確途徑,結果收益最高的決策才是最道德決策。同時《實驗心理學月刊》上的研究結果表明,那些通過後果論進行決策的人往往人緣更差,人們會認為他們冷酷、自私、不近人情,因為普通人更願意遵守代代相傳的道德觀,即使那樣會得出收益不那麼高的結果。
但AI的進行的往往都是後果論決策,追求收益而非道德正確。因此研究推斷,未來人類很可能也會對AI做出的決策產生一些質疑。因為人類會預設機器沒有道德感、同理心、同情心這種以往概念裡一個好的決策者應有的特質。
AI如何獲取人類信任?除了套路還是套路
不過現在也有很多研究團隊意識到了這一問題,開始想辦法研究如何建立起人機信任。目前來看,研究方向大概分為兩個角度,一個是從人的角度尋找什麼樣的AI才更容易獲得人類的信賴,另一個是從AI的角度去感知和評估人類的信任程度。
MIT曾經和新加坡科技設計大學進行過一系列實驗,得出兩個結論,第一是想讓人類信任AI,就需要讓人類“參與”AI訓練的過程;第二人類更希望AI指出問題而不是確認問題。
在第一個實驗中,人們被要求在看過一系列照片後,再在AI的輔助下從一系列圖片庫中選中自己看過的圖片。實驗物件被分為AB兩組,A組被告知AI技術會隨著使用者選擇過程循序漸進提升,使用者決策正確的越多,AI技術也會隨之提升。B組沒有被告知任何資訊,實際上兩組AI演算法的精準度是一樣的。但實驗結果是,A組實驗物件會更信任AI演算法,B組則更信任自己的選擇。
而在第二個實驗中,演算法對無人機回傳來的畫面進行影象識別,A組物件中AI會把畫面中的火災、偷盜、搶劫等等畫面圈出來,B組物件中AI則會把畫面圈出來,並且標註上“火災”、“偷盜”、“搶劫”等等。兩組演算法都有同樣的誤差比率,但實驗結果表明A組實驗物件對於AI的信任程度要遠高於B組,畫面檢閱的效率也遠高於B組。因為在人類看來,對於具體情況的判斷失誤是一種非常嚴重的錯誤,代表著演算法很不可信,所以他們要把畫面整體都重新細細看一遍,比起A組使用者判斷標註出來畫面的具體情況,要浪費了不少時間。
或許未來AI獲取人類信任也需要一些“套路”,像是假裝需要人類參與訓練,或者刻意把一些工作分擔給人類。

而最近普渡大學械工程學院推出了一項系統,通過對膚電測試和腦電波測試採集人們的狀態,推出適用於大眾的“通用信任模型”和個人的“個性化信任模型”。研究者表示AI工具可以和這些信任模型聯動起來,尤其在兒童教育、老年人看護這些領域,對於人類信任狀態的感知可以幫助AI更好的服務人類。例如當AI感知到人類的不信任時,可以暫停當下的工作,通過安撫一類的方式提升人類的信任。
人機信任的第一步……或許是AI打假?
不過在以上提到的幾個實驗中,都出現了一個有趣的共同發現——人類對AI的信任程度是可以被控制的,AI的表現越差、給使用者造成不好的體驗,人類的信任程度越低——不管是從腦電圖的生理狀況看來還是從行為看來都是如此。
例如讓人乘坐一輛自動駕駛的汽車,如果汽車總是無緣無故的突然剎車,讓人在車中顛簸,人類的信任程度就會快速降低。
那這麼看來,真正有害於人機信任的並不是狗血科幻電影,而是那些正洶湧而來的人工智障。或許如今建立人機信任最高效的方法不是別的,而是AI打假。
特別宣告:本文為合作媒體授權DoNews專欄轉載,文章版權歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉載請聯絡原作者及原出處獲取授權。