灰色地帶中的隱私之牆,怎麼攻?
圖片來源@視覺中國
文|鎂客網
自去年年初開始,關於“資料隱私”的討論就一直很激烈。
技術面前,隱私不再“隱私”
“隱私”一詞第一次出現是在周朝初年,指代“衣服”,即把私處藏起來的東西。
按照現在的說法,所謂的“隱私”,即一種與公共利益、群體利益無關,當事人不願他人知道或他人不便知道的個人資訊,當事人不願他人干涉或他人不便干涉的個人私事,以及當事人不願他人侵入或他人不便侵入的個人領域。
隱私的周圍或多或少都會存在窺探者,出於不同的目的,他們往往能夠把隱私玩出許多花樣,並由此誕生了許多不同的職業和市場,比如致力於圍繞個人或群體調查資訊的私家偵探,又比如滿足人們對明星生活好奇心的娛樂記者……而隨著網際網路時代,人們窺探隱私的手段也以可見的速度進行升級換代,尤其是在使用者服務、市場營銷等領域。
以市場營銷為例,今年315晚會現場所揭露的資料灰色產業至今令人記憶猶新。通過一種“探針盒子”裝置,裝置持有人便能夠捕捉手機的區域網訊號,繼而獲取MAC地址。只需要將這段地址資料與大資料系統進行配合,包括性別、年齡、收入、婚姻狀況、教育程度、新老客屬性等在內的機主資訊都將一覽無餘。基於這些資訊,服務商即可幫助商家勾勒出使用者精準畫像,進而開展廣告精準推送等等。
一套流程下來,整個步驟就是如此的簡單粗暴且有效。而在以往,這些資訊的收集和使用者畫像的勾勒往往需要消耗大量人力和時間去進行使用者調查、資料歸納整理等工作,且精準度也因為使用者的主觀意識而存在不確定性。
而在線上,在得到類似效果的前提下,獲取使用者資料隱私的成本則更低。明面上,APP會要求使用者同意並授權諸如相機、麥克風、位置資訊等服務,從而正大光明的採集各類資料;暗地裡,無需使用者同意或授權,平臺往往也能夠通過cookie等技術手段採集使用者資料,繼而勾勒畫像,提供個性化服務或精準營銷。
令人氣憤或無奈的是,為了正常使用服務,使用者往往不得不同意那些存在隱私洩露隱患的隱私政策,並授權平臺使用相機、麥克風等。
可以說,在智慧演算法等技術面前,人們的隱私已經不再私密,甚至比以往更易獲得。
選擇隱私與服務,這道選擇題沒有絕對的答案
如何保護隱私?傳統做法是閉緊嘴巴、避開他人耳目行事。直到1980年,“隱私權”這一概念才被提出,讓人們在法律層面找到了保衛隱私的武器。而隨著網際網路時代、智慧化時代的到來,這一法律武器也“學會了”與時俱進。
比如歐盟,其在2016年通過了被稱為史上最嚴的《常規資料保護條例》(簡稱GDPR),要求資料控制者(收集歐盟公民資料的任何公司)嚴格執行條例所規定的資料處理規範,及時告知資料主體的使用情況。GDPR已經於2018年5月份正式實施,彼時依舊身陷“劍橋分析”事件泥潭的Facebook剛好撞在槍口上。
可以注意到,GDPR所強調的是公司要將資料使用情況及時告知使用者,而非要求公司停止收集資料。為什麼?因為就現實情況而言,使用者資料在多數情況下是避無可避的。
比如那些正在使用APP的使用者,他們難道不知道自己的資料正在被收集嗎?非也。現實情況是,他們出於社交等目的不得不繼續使用這些APP,且能夠在不受到直接物質傷害的前提下享受到一些有價值的服務。
當然,或許有人為了資訊不被收集而拒絕使用那些APP,甚至不主動使用任何聯網裝置,但這樣就能夠避免資料隱私被採集嗎?不是的。
資料的收集主要依賴於各類終端裝置,據前瞻產業研究院釋出的《2018-2023年中國物聯網行業細分市場需求與投資機會分析報告》初步估算,2020年物聯網裝置數量將達到204億。
針對手機、電腦等自可控智慧裝置,使用者可以選擇斷網、遮擋攝像頭等物理操作來阻止它們收集並上傳資料,但在超市、商場,甚至是大街等被充斥海量智慧裝置的不可控場景中,出於安全等多樣性的目的,被留下資料痕跡是不可避免的事情。
與此同時,資料隱私的控制權也從使用者手中轉移到採集資料的公司手中。
還記得此前,針對資料隱私以及基於資料訓練演算法而來的個性化服務,李彥巨集曾發表一番言論,在業內引發一場熱議。關於“中國使用者願意拿資料隱私換取服務”的觀點,這裡不予置評。
但他所提到的一個觀點說的有幾分道理,他說“我們也要遵循一些原則,如果這個資料能讓使用者受益,他們又願意給我們用,我們就會去使用它的。我想這就是我們能做什麼和不能做什麼的基本標準。”
在網路四通八達、處處充斥著智慧裝置的當今,如果沒有花費心思進行隱藏的話,人們的一舉一動都將近乎完全暴露。這時候,人們需要擔心的不是自己的資料是否被收集,而是這些資料是否被不正當利用。而除了正常的法律約束,技術支撐往往也是不可或缺的,尤其是在一切事物都被“資料化”的當下。
保護隱私,法律之外還需要“以毒攻毒”
上至國家、下至普羅大眾,”未來是AI時代“已經成為了一個共識。經過這幾年的發展,AI已經走下神壇,從一個深奧的話題演變的更為貼近民生。與此同時,人們也享受到了AI所帶來的便利。而這其中,最大的功臣之一就是資料。
有了資料,演算法能夠在不斷的訓練中提升精準性;有了資料,演算法才能針對性的面向使用者提供服務,而不是成為一個雞肋;有了資料,人們所設想和期待的萬物智聯才會成為現實……可以說,資料是智慧化實現的動力。
圍繞智慧化趨勢所帶來的資料隱私安全以及是否被濫用問題,諸多國家正在從法律層面進行完善,除了前面提到的歐盟GDPR,我國也於去年5月份正式實施《資訊保安技術個人資訊保安規範》,要求平臺在收集個人敏感資訊時,平臺應徵得使用者的明示同意,並區分核心功能和附加功能,以打破”一攬子授權“的難題……
理性的來說,健全的法律只是利用一種合法的手段為人們提供一個武器,對收集資料的公司起到一個震懾的作用,但並不能完全消除人們對於資料隱私被收集和利用的擔憂。而基於這股擔憂,使用者也將在一定程度上”不信任“公司基於資料而提供的服務,久而久之,使用者與公司之間必然將產生裂縫,這並不是後者所願意見到的。
為了避免這種情況的發生,越來越多的公司開始關注起”資料隱私“這一以往被忽略的問題。比如谷歌,在日前舉辦的I/O大會上全程不忘提及他們在隱私保護上做出的努力。
目前,為了讓使用者對資料隱私放心,企業的解決方案分為兩大方向,一個側重於資料收集的源頭,另一個則將重點放在資料收集之後的保護:
資料脫敏
前面也提到,為了達到個性化服務、精準營銷等服務,資料被收集是一個必然的事實,只是需要注意的是,並不是所有資料都要被收集。在這方面,部分企業選擇收集那些非敏感資料,即脫敏資料。
這一過程中,當涉及客戶安全資料或者一些商業性敏感資料的情況,在不違反系統規則條件下,企業會通過脫敏規則對資料進行改造,剔除身份證、手機號、卡號、年齡、性別等個人敏感資訊。
目前,“資料脫敏”這一方法被大多數企業所採用,區別只在於具體方式不一樣。經過脫敏處理後,留下則是結構化資料,不存在過於敏感的隱私問題。一般而言,基於脫敏資料而形成的使用者畫像是不完整的,做不到特別精準的個性化推薦、服務,但是對於一些商業目的而言,這些已經足夠。
與此同時,從資料智慧化的流程上講,收集脫敏資料意味著使用者的敏感資訊從最初就被剔除在外,相當於從源頭即開始保護使用者的資料隱私,從而保證了資料隱私的安全性。
邊緣計算
自去年開始,邊緣計算就一直被業界所推崇,而在探討其優勢的時候,“提高資料的安全性與可靠性”這一點必定在列。
在邊緣計算被提出之前,終端裝置在雲端計算模式下需要將所收集的使用者資料上傳至資料中心,也就是所謂的雲端,某些時候常常造成資料擁堵的現場,而更需要提高警惕的是,這些資料極有可能在上傳過程中,亦或是在終端伺服器內遭到洩漏。
不同於雲端計算的操作模式,邊緣計算將包含使用者隱私的資料放在邊緣節點,以進行儲存和處理分析,相對提高資料的安全性。
另外,因為是將資料放在邊緣節點,邊緣計算的資料隱私避免了長途跋涉的過程,在縮減資料上傳時間、躲開資料擁堵的同時,也提升了裝置的響應速度。
聯邦學習
邊緣計算之後,近期出現了又一個針對資料隱私保護的新概念,即“聯邦學習”。
“聯邦學習就像一個安全的道路網路,可以既滿足人工智慧的訓練要求,又保障我們的個人隱私不被濫用,因為這個道路網路上跑的是無法還原到原始資料的加密資訊。”創新工場南京國際人工智慧研究院執行院長馮霽表示。
以學生的個性化教育為例,圍繞該學生的所有資料被分散化的,這並不利於最佳模型的訓練。同時,若將資料在不進行加密或不在安全標準下進行跨地域、跨資料來源的聚合和交換,企業也無法在所有不同資料來源上訓練最能反應該學生學歷歷程的AI模型,也需要承擔極大的資料隱私風險。
而藉助聯邦學習,業界可以建立一個安全的共享機制,不需要交換原始隱私資料,企業只需要在加密的資料上進行聚合訓練,就可以得出完整反映學生情況的AI模型,並基於該模型為學生針對性的定製學習計劃。
聯邦學習的這種做法,相當於在原始資料外圍增加了一把鎖頭,並進行模糊化處理等二次加工。
在智慧化時代,資料就是新的生產力,兩者之間相互扶持,一榮俱榮、一損俱損。沒有資料的支撐,智慧化也只能停留在淺層表面,相比於它真正所能夠提供的價值,停留在表面的智慧化只能算是碌碌一生。
若要得到資料的支撐,那麼安全性則是一個始終都繞不開的話題。只有安全性得到保障,使用者才會信任演算法、信任服務,繼而才會使用它,並向提供服務方進行反饋,形成一個良性迴圈。
【鈦媒體作者:鎂客網,微信公眾號搜尋“鎂客網”,微博@鎂客網】