AI鑑渣女,別用技術施行隱私侵害
來論
AI鑑渣女是對某個群體簡單粗暴的汙名化。
最近,程式設計師@將記憶深埋在微博上宣佈其完成了一個專案:將色情網站上的公開視訊和圖片打標籤後做匹配,以實現所謂“以圖搜片”。查詢者可通過上傳女性照片、視訊和資料庫做匹配,判斷該女性是否疑似從事過色情行業。
據稱,該程式藉助100多TB的資料,已“在全球範圍內成功識別了10多萬名疑似從事色情行業的女性”。開發者@將記憶深埋稱此是為了鑑別“渣女”,避免老實又多金的程式設計師群體成為“接盤俠”。有“熱心網友”甚至給這款產品起名為“原諒寶”。
不過,迫於輿論壓力,開發者已刪除了整個專案和資料庫,並因言論不當向公眾道歉。但其引致的爭論卻沒有結束。
人人皆有窺私心理,尤其涉及兩性關係,那些耳鬢廝磨的情話,都是最為私密的部分。這位程式設計師卻將此作為公開資料進行渣女分析與鑑定,還想公之於眾,這到底和女性是有什麼仇怨,難道正如其網名所言,有多少記憶想深埋?
開發者號稱其資料來自1024等網站,但就算是在這些網站上高清露臉不打碼的姑娘就要被公開示眾?
不論是數年前震驚香港演藝圈的豔照門事件,還是今年差點掀翻韓國娛樂圈的“勝利事件”,瘋傳的不雅視訊受害者均為女性。而此前報道,一對以結婚為目的的年輕情侶,每次床笫之歡都被男方偷錄,後來不歡而散時,男方竟將其性愛視訊全網張貼。如此種種“渣男”行徑,難道不更值得曝光?
也許有人會說,這位程式設計師的初衷還是好的,但不論是將程式設計師作為高頻被出軌物件,還是將全職媽媽認定為晝顏人妻,都是對某個群體簡單粗暴的汙名化。
這款程式或許已經刪除資料,恐怕更應該刪除的,是在技術掩蓋下對個人隱私無休止的侵害,是利用科技“扒墳掘墓”挖他人黑料的窺私慾。