MIT誕生全球第一例精神病機器人,AI前路註定不平坦

如果沒有威爾史密斯的《機械公敵》,MIT的這款機器人將是世界上第一個機器人精神病患者。
MIT的科學家,將Reddit(美國的社交新聞站點,全球流量第四,slogan是先於新聞發生,鼓勵使用者自己生產內容和發表專題,開放投票功能,票數高的會排在前列)中的一些暴力和死亡的負面影象資料,餵給一名人工智慧機器人,成功將其變成一位精神病患者,還給他去了一個名字叫Norman。Norman是希區柯克1960年電影《心理學(Psycho)》中的角色。
麻省理工學院的科學家Pinar Yanardag,Manuel Cebrian和Iyad Rahwan專門訓練Norman,給影象配字幕: 抽取影象敘事資訊並以書面形式產生相應的描述。 所以用羅夏墨跡測試(著名的心理學實驗,用於測試人類潛意識)去建立對照組,檢查機器人的影象解讀模型是否完善,是最好不過了。但結果是讓人不寒而慄的。在看到某個墨跡區域之後,Norman產生了電擊和撞車的詭異解釋,而對照組裡的標準人工智慧只會看到雨傘和婚禮蛋糕。

因此,世界上第一個精神病患者AI。Norman誕生於這樣一個事實,即用於訓練機器學習演算法的資料可以顯著影響其行為。因此, 當人們談論人工智慧演算法存在偏見和不公平時,罪魁禍首往往不是演算法本身,而是提供給它的偏見資料。 相同的方法可以在影象中看到非常不同的東西,演算法是一種決策,如果訓練錯誤的(或正確的!)資料集,依然會產生內容偏差。雖然一個案例,但然我們看到了資料偏差產生的巨大影響。
他們的研究證明了,改變演算法的輸入內容可以極大地影響其後來的行為。科學家們認為,很多網際網路公司提供的內容被指責為偏見或不公平,例如Facebook前員工爆出的網站專門壓制保守派新聞,“罪魁禍首往往不是演算法本身,而是偏見的資料。”
類似的,各種種族主義的偏見都有被誤解為演算法的案例,那麼,現在可以考慮翻案了。MIT數字經濟倡議聯合委員會主任表示,只要“輸入資料準確無誤”,人工智慧就可以保持有效和無偏見。
這個研究幫助人類更好的理解了AI,正視了各種網際網路內容的質量問題。但是很多人已經對AI的技術發展和應用感到擔憂。

只是暴露在負面形象和壓抑思維中,AI的移情邏輯就無法開啟。新南威爾士大學臨床神經心理學教授斯凱麥克唐納說,Aldebaran Robotics的“Pepper”機器人可能是訓練人類同理心的最接近的實驗之一,機器人專家希望有一天人工智慧能夠通過觀察一個人的面部表情來理解人類的情感。 然而,如果資料偏差就會導致如此大的逆轉的話,麥克唐納認為,技術“距離完全理解人類同理心如何運作的複雜性還有很長的路要走。”
理解機器智慧,引接人機協同時代,期待您的關注。歡迎在評論區留下您的寶貴意見。:)