英特爾開源HE-Transformer,讓AI模型能夠處理加密隱私資料
所有的資料科學家都會告訴你:資料集是人工智慧(AI)的生命線。但對於需要處理大量個人身份資訊的行業(例如醫療健康行業)來說,如何兼顧AI的大資料訓練與與個人隱私保護是個艱鉅的挑戰。但幸運的是,業界在AI模型培訓中使用匿名加密資料的方法方面取得了令人鼓舞的進展。
今天在加拿大蒙特利爾召開的NeurIPS 2018會議上,英特爾宣佈推出開源式 ofollow,noindex" target="_blank">HE-Transformer ,這是一種允許AI系統對敏感資料進行操作的工具。它是nGraph——英特爾神經網路編譯器的後端,基於簡單加密演算法庫( SEAL ),該加密庫本週已經由微軟研究院開源。
英特爾和微軟兩家公司將HE-Transformer定義為“隱私保護”機器學習的一個典範。
“他允許對加密資料進行計算。當應用於機器學習時,此功能允許資料所有者獲得有價值的分析結論,同時又不會暴露基礎資料; 而且,該工具可以使AI模型所有者通過以加密形式部署來保護他們的模型,“英特爾研究科學家Fabian Boemer和英特爾研究高階主管Casimir Wierzynski在一篇部落格文章中寫道。
HE-Transformer中的“HE”是同態加密的縮寫,是一種加密方式,可以基於密文(被演算法加密的明文或檔案內容)上進行計算 ,生成一個加密結果,在解密時,與未加密文字上執行的操作結果完全匹配。
HE是一項相對較新的技術–IBM研究員Craig Gentry在2009年開發了第一個完整的HE方案。正如Boemer和Wierzynski所說,設計使用HE的AI模型不僅需要機器學習技術,還需要加密和軟體工程方面的專業知識。
HE-Transformer提供了一個可應用於開源框架(如Google的TensorFlow,Facebook的PyTorch和MXNet)上的神經網路的抽象層,來幫助開發過程,人們無需再將模型手動整合到HE加密庫中。
HE-Transformer結合了Cheon-Kim-Kim-Song(CKKS)加密方案以及加法和乘法運算,例如加法、廣播、常數、卷積、乘、否定、填充、整形、切片和減法。此外,它還支援HE特定技術,如明文值旁路,SIMD打包,OpenMP並行化和明文操作。
基於上述特性和其它優化,Intel聲稱HE-Transformer在 cryptonets 上的效能表現一流。 -後者使用在TensorFlow中訓練的浮點模型。
微軟研究院首席研究員兼密碼學研究經理克里斯汀·勞特表示:“我們很高興能與英特爾合作,為更多的資料科學家和隱私保護機器學習系統開發人員帶來同態加密技術。”
目前,HE-Transformer直接與TensorFlow的nGraph編譯器和執行時整合,對PyTorch的支援也即將推出。對於那些能夠將神經網路匯出到ONXX的深度學習框架,例如PyTorch,CNTK和MXNet,可以通過將模型匯入ONXX中的nGraph並以序列化格式匯出它們來使用這些框架。
Boemer和Wierzynski表示,未來版本的HE-Transformer將支援更多種類的神經網路模型。
他們寫道:“作為最新的進展成果,HE已經成為一種有價值的深度學習工具。” “研究人員如今可以利用TensorFlow快速開發新的面向HE的深度學習拓撲。”