全新演算法助機器學習抵抗干擾
科技日報北京7月1日電(記者張夢然)機器學習模型受到攻擊將產生嚴重的後果,但如果對這一情形提前預防呢?就像人類針對即將到來的病毒去接種疫苗一樣。據澳大利亞聯邦科學與工業研究組織(CSIRO)官方網站訊息,該機構的一個研究團隊,日前開發了一套人工智慧(AI)最新演算法,可幫助機器學習抵禦可能遇到的干擾。
機器學習是人工智慧的核心,也是使計算機具有智慧的根本途徑。機器學習主旨是讓計算機去模擬或實現人類的學習行為,以獲取新的知識或技能,並重新組織已有的知識結構,使之不斷改善自身的效能。
機器學習雖然可以在大資料訓練中學到正確的工作方法,但它也很容易受到惡意干擾。通常攻擊者是通過輸入惡意資料來“欺騙”機器學習模型,導致其出現嚴重故障。
此次,開發出新演算法的研究團隊——“Data61”機器學習小組領導者理查德·諾克表示,攻擊者會在進行影象識別時,在影象上新增一層干擾波,達到“欺騙”的目的,從而讓機器學習模型產生錯誤的影象分類。
諾克及其團隊成員研發的新演算法,通過一種類似疫苗接種的思路,可以幫助機器學習“修煉”出抗干擾能力。這是針對機器學習模型打造的防干擾訓練,譬如,在圖片識別領域,該演算法能夠對圖片集合進行微小的修改或使其失真,激發出機器學習模型“領會”到越來越強的抗干擾能力,並形成相關的自我抗干擾訓練模型。
經過此類小規模的失真訓練後,最終的抗干擾訓練模型將更加強大,當真正的攻擊到來之時,機器學習模型將具備“免疫”功能。
總編輯圈點
用小伎倆干擾機器對影象的識別,這種手段已經應用在網路黑產中。人眼看起來並無明顯區別的圖片,覆上一層專門針對機器的干擾波,就能讓機器的判斷大失水準。所謂接種疫苗,其實也就是“以毒攻毒”,讓機器先見識已經被微小修改的圖片,並在訓練中自我學習,從而最終能識破這層惡意干擾,揭開圖片的廬山真面目。機器的學習功能是強大的,教會它應對方法,它便能自我完善。但攻擊與防禦總是相伴相生,這是一場沒有盡頭的技術博弈。