1. 程式人生 > >知物由學 | 虛假色情泛濫,人工智能可以做些啥?

知物由學 | 虛假色情泛濫,人工智能可以做些啥?

mage 處理 創新 事情 這樣的 由來 dfa 方案 連線

本文由 網易雲 發布。

“知物由學”是網易雲易盾打造的一個品牌欄目,詞語出自漢·王充《論衡·實知》。人,能力有高下之分,學習才知道事物的道理,而後才有智慧,不去求問就不會知道。“知物由學”希望通過一篇篇技術幹貨、趨勢解讀、人物思考和沈澱給你帶來收獲的同時,也希望打開你的眼界,成就不一樣的你。當然,如果你有不錯的認知或分享,也歡迎通過郵件([email protected])投稿。

本文作者:Louise Matsakis,《連線》雜誌編輯,負責網絡安全、互聯網法律和網絡文化,曾在VICE的科技網站主板和Mashable擔任編輯。

技術分享圖片

Gfycat——一個動態圖片托管平臺,致力於讓視頻或動態圖片的上傳和分享更加快速便捷。

作為一個在線動態圖片托管平臺,公司成立的目的就是要改善21世紀人們對GIF的觀看體驗。GYF是“GIFFormatYoker”(GIF格式關聯)的縮寫,這一縮寫很好地體現了公司成立的目的,即要把GIF和HTML5視頻關聯起來。

人臉識別和機器學習的使用已經越來越普遍了,互聯網也開始利用這些技術來制作虛假的色情視頻。正如Motherboard報道的那樣,人們正在制作智能面部交換色情片,將名人的臉換到色情片的女演員上,例如偽造國外明星蓋爾·加朵(GalGadot)與她同父異母的哥哥睡在一起的視頻。當Reddit、Pornhub和其他社區都在為禁止了deepfakes的內容傷腦時,GIF-hosting公司的Gfycat找到了一個不錯的解決方法。

Gfycat表示他們已經找到一種通過人工智能來識別虛假視頻的方法。Gfycat已經開始利用這項技術來對其平臺的GIF進行審核。這項新技術向人們展示了在未來如何嘗試與虛假視頻內容對抗。毫無爭議的是,隨著越來越多類似Snapchat的平臺將視頻內容引入新聞行業,與虛假視頻內容的鬥爭會越來越激烈。

Gfycat至少擁有兩億活躍用戶,它希望能提供一種比Reddit、 Pornhub和Discord更全面的方法來過濾deepfake。Mashable報道稱Pornhub未能從其網站上刪除一些deepfake視頻,包括一些有數百萬點擊量的視頻(這些視頻後來在文章發布後被刪除)。三月初,Reddit網站禁止了一些deepfake社區,但保留了一些相關的板塊,如r/DeepFakesRequests 和r/deepfaux,直到WIRED在報道這個故事的過程中引起他們的註意。

這些努力不該被忽視,但同時,它們也顯示了互聯網平臺的人工運營是有多麽困難——特別是當電腦不需要人工,能發現自己的deepfake的時候。

人工智能開始戰鬥

Gfycat利用人工智能開發了兩種工具,它們都以貓科動物命名:Angora項目和Maru項目。當用戶將泰勒?斯威夫特(Taylor Swift)的低質量GIF上傳到Gfycat時,Angora項目可以在網上搜索更高分辨率的版本以替換它。換句話說,它可以找到斯威夫特同樣的演唱剪輯“"ShakeIt Off”,並將這個更好的版本上傳。

現在讓我們假設你沒有標記你的剪輯為泰勒?斯威夫特,但這不是一個問題。據稱Maru工程可以區分不同的人臉,並會自動用斯威夫特的名字標記GIF。這從Gfycat的角度來看是有意義的,它希望將每月上傳到平臺的數百萬用戶的素材編入索引。

業余愛好者創作的大多數deepfake都不完全可信。因為如果你仔細看,這些幀並不太匹配;在下面這段視頻剪輯中( ,PS:需FQ),唐納德·特朗普(DonaldTrump)的臉並沒有完全覆蓋安格拉?默克爾(Angela Merkel)的臉。但是你的大腦做了一些處理,填補了技術無法將一個人的臉變成另一個人的臉的空白。

Maru項目遠不如人腦寬容。當Gfycat的工程師通過它的人工智能工具運行deepfake時,它會註冊類似於尼古拉斯凱奇(Nicolas Cage),但不足以發出一個肯定的匹配,因為人臉並不是在每一幀中都呈現得完美無缺。使用Maru是Gfycat發現deepfake的一種方法,當GIF僅部分像名人時,它可能就不會特別好使。

Maru項目可能無法單獨阻止所有的deepfake,且隨著它們變得更復雜,未來也會更加的麻煩。有時,一個deepfake的特征不是名人的臉,而是一個平民,甚至是創作者僅個人認識的人。為了對抗這種變化,Gfycat開發了一種類似於Angora項目的遮蔽技術。

如果Gfycat懷疑某個視頻已經被修改以顯示其他人的臉,比如Maru沒有肯定地說這是泰勒?斯威夫特的,那麽公司就可以“屏蔽”受害者的臉,然後搜索是否在其他地方存在身體和背景錄像。例如,在特朗普(Trump)的身體上放置他人面孔的視頻中,人工智能可以搜索互聯網,並打開它借用的原始的國情咨文的視頻錄像。如果在新的GIF和源文件之間不匹配,人工智能可以斷定視頻已經被修改了。

Gfycat計劃使用它的屏蔽技術來屏蔽更多的人臉,以檢測不同類型的虛假內容,比如欺詐天氣或科學視頻。Gfycat一直非常依賴人工智能來分類、管理和調節內容。Gfycat首席執行官理查德·拉巴特(Richard Rabbat)在一份聲明中說,“人工智能的創新步伐加快,有可能極大地改變我們的世界,我們將繼續使我們的技術適應這些新的發展。”

不是萬無一失

Gfycat的技術在至少在一個feedfake的工作場景中是行不通的:一個在其他地方不存在的臉和身體。例如,兩個人在一起拍sex錄像,然後換到別人的臉上。如果沒有人參與其中,而且視頻在其他地方沒有,那麽Maru或Angora就不可能知道內容是否被改變了。

目前看來,這是一個相當不可能的情況,因為制作一個deepfake需要訪問一個視頻和某人的照片。但也不難想象有這樣的一個情況,一個前戀人會利用手機上的視頻來拍攝受害者,而這些視頻從未公開過。

即使是以色情明星或名人為特征的feedfake,有時候人工智能也不確定到底發生了什麽,這就是為什麽Gfycat雇傭人來幫忙的原因。該公司還使用其他元數據,如共享位置或上傳者來確定剪輯是否是一個feedfake。

此外,並非所有的視頻都是惡意的。正如電子前沿基金會(ElectronicforrentionFoundation)在一篇博客文章中指出的那樣,上述默克爾/特朗普混搭(Merkel/Trump)之類的例子僅僅是政治評論或諷刺。還有其他合法的理由來使用這種技術,比如匿名化需要身份保護的人,或者創建經雙方同意改變的色情作品。

盡管如此,還是很容易看出為什麽這麽多人會覺得deepfake令人苦惱。它們代表著一個未來的開端,即不可能判斷一個視頻是真實的還是假的,這可能對宣傳及更多的內容產生廣泛的影響。俄羅斯在2016年總統選舉期間用假機器人淹沒了Twitter;在2020年的選舉中,可能會對候選人自己的造假視頻做同樣的事情。

漫長的戰鬥

雖然Gfycat提供了一種潛在的解決方案,但它可能只是一個時間問題,直到deepfake的創造者學會如何規避它的安全保障。隨之而來的鬥爭可能需要數年時間才能完成。

正如達特茅斯學院(Dartmouth College)的計算機科學教授、專門從事數字取證、圖像分析和人類感知的HanyFarid說的:“我們幾十年的時間裏,你可以在色情網站或Reddit上找到你可以釋放的法醫技術,並最終從一個虛假的信息中分辨出真實的信息。”如果你真想愚弄這個系統,你就會開始建立起一套破解法醫系統的方法。

相關閱讀:

知物由學第七期 | 未來安全隱患:AI的軟肋——故意欺騙神經網絡

知物由學第八期| 你的網絡安全問題背後的真正原因

知物由學第九期 | 基於DNN的人臉識別中的反欺騙機制

如果你受困於色情、渉政等虛假信息,那麽你可以嘗試用下易盾的反垃圾業務,可點擊此處一鍵接入易盾內容安全解決方案。

了解 網易雲 :
網易雲官網:https://www.163yun.com/
新用戶大禮包:https://www.163yun.com/gift
網易雲社區:https://sq.163yun.com/

知物由學 | 虛假色情泛濫,人工智能可以做些啥?