麻省理工學院、Facebook均出手 AI能結束假新聞嗎?
假新聞源於Collin在2017年的講話。在一年一度的常規政治新聞中,高調的醜聞震撼了我們對人性的信念,人們痛苦地發現,區分新聞中的現實和虛構變得越來越難。社交媒體的興起也造成了一種似乎無法阻擋的虛假資訊傳播力量, 這些錯誤的資訊在今年早些時候以劍橋分析公司醜聞的形式顯現出其醜陋的側面。這引發了人們對社交媒體問責制以及那些運營網站的人員如何能夠切實解決他們自己造成的“怪物”問題的嚴重質疑。
麻省理工學院CSAIL(電腦科學與人工智慧實驗室)和QRCI(卡達計算研究所)於昨天(10月4日)宣佈了一個新專案,該專案旨在識別虛假新聞在傳播之前的來源,或可能將不可信賴的新聞資訊自動分類。儘管增加真實性檢測的益處是無法估量的,但是,當處理像假新聞這樣不可預測的“野獸”時,這些新功能是否只不過是路上的一次撞擊罷了?
Bullsh * t檢測
在當下,檢測假新聞很困難,在造成太多損害之前公佈虛假宣告,像Snopes和Politifact這樣的 ofollow,noindex">網站 承受著比以往任何時候都要大的壓力。問題在於處理個人索賠非常耗時,一旦錯誤的資訊洩露,損害就已經造成。麻省理工學院CSAIL和QCRI的專案旨在通過識別持續傳播錯誤資訊的網站和具有重大政治傾向的網站來解決這個問題(因為這些網站通常是假新聞的主要提供者)。
該系統檢視來自該網站的文章及其維基百科頁面、Twitter帳戶、URL結構和網路流量,以及搜尋表明強烈政治偏見或錯誤資訊的關鍵詞和語言特徵(例如,虛假新聞媒體經常使用更多誇張性語言)。使用來自媒體偏見/事實檢查(MBFC)的資料,該系統檢測網站的“ 事實性”水平的準確率為65%,檢測到政治偏見的準確率大約為70%。
雖然該專案還處於初期階段,但共同作者普雷斯拉夫·納科夫(Preslav Nakov)相信這將有助於現有的事實核查服務,使他們能夠“立即檢視假新聞分數,以確定給予不同觀點的有效性。 ”這將是該專案如何在實踐中發展和使用的一個關鍵點,因為人們仍然需要檢查這些分數,以確定新聞資訊是否跨越虛假資訊的界線,或者只是用情緒化和說服力的語言來扭曲事實。
過多的信任
至少目前,該專案與手動事實檢查器一起使用最為有用,但是隨著機器學習演算法進一步發展,理論上它將能夠提前識別這些站點並告知媒體監管機構風險所在。然而,那些主要通過社交媒體上不受限制的頻道進行廣泛傳播的假新聞提出了一個重要問題:擁有人工智慧檢測的承諾,是否會讓讀者陷入虛假的安全感?
Facebook 今年早些時候釋出了一項廣告宣傳活動,宣佈他們致力於處理假新聞、虛假賬戶、點選攻擊和垃圾郵件,這是馬克扎克伯格將Facebook帶回其核心價值觀的更廣泛戰略的一部分。在成為歷史上最引人注目的資料洩露之一的中心之後,Facebook正在努力說服使用者相信他們可以被信任。
Pew Research在2017年9月進行的一項研究發現,45%的美國成年人使用Facebook獲取新聞,儘管任何人都可以在社交媒體上發帖。但是,當有必要監控超過20億使用者時,如何控制人們對非官方資訊來源的依賴?Facebook顯然希望向使用者和監管機構保證他們的演算法能夠解決這個問題,但證明新聞是錯誤的,就像在牆上貼上果凍:最好的情況是耗費時間,最糟糕的情況是不可能發生。事實上,Facebook的實力和麻省理工學院的檢測系統可能會引導人們放鬆警惕,更願意相信他們所讀的內容。
人們是問題所在
相信聳人聽聞的資訊的意願是一種真實存在的現象,揭露虛假資訊並不總能改變人們的思想。發表在《Intelligence》雜誌上的2017年11月的一項研究發現,那些認知能力較低的人在被告知有關虛構人的詆譭資訊是假的之後,仍無法改變原來的印象。正如麻省理工學院CSAIL論文字身所說的那樣:“即使揭穿是由聲譽良好的事實檢查組織來完成,這也無助於說服那些已經相信虛假資訊的人”。
一項麻省理工學院的研究發現,真實新聞到達使用者的時間是相關資訊觸達Twitter使用者時間的6倍,而“70%的假新聞比真相更有可能被轉推”。因此,社交媒體使用者加劇了假新聞的傳播,並且很少有機器學習可以改變已經根深蒂固的壞習慣。
實施機器學習以對抗假新聞的傳播是值得肯定的,並且這個問題需要被解決,因為主要媒體機構的可信度受到質疑。但隨著社交媒體加劇了錯誤資訊的傳播,檢測和揭露虛假新聞的來源能夠讓人類克服本能來相信我們被告知的內容嗎?