DARPA意圖開發阻止欺騙機器學習演算法的防禦措施
[據軍事嵌入式網站2019年2月9日報道] 美國國防先期研究計劃局(DARPA)建立了保證人工智慧抵禦欺騙的穩健性(GARD)專案。該專案旨在開發新一代對機器學習(ML)模型對抗性欺騙攻擊的防禦。
目前的防禦工作旨在阻止特定的、預定義的對抗性攻擊,且在測試時仍然容易受到超出其設計引數的攻擊。GARD尋求以不同方式接近機器學習防禦——通過開發基於廣泛的防禦來解決特定場景中的眾多可能攻擊。
DARPA資訊創新辦公室(I2O)的專案經理Hava Siegelmann博士表示,“過去10年,研究人員一直致力於實現能夠完成實際任務並使其更高效的實用機器學習。我們已從這項工作中受益,並迅速將機器學習納入許多企業。但是,我們很少關注機器學習平臺的固有漏洞——特別是在改變、破壞或欺騙這些系統方面。”他還稱,“由於該技術越來越多地在我們最關鍵的一些基礎設施中使用,因為對機器學習防禦需求迫切。當處於起步階段的攻擊方法已經成熟到更具破壞性的程度時,GARD專案旨在防止在不久的將來可能發生的混亂。我們必須確保機器學習是安全的,不能被欺騙。”
GARD對對抗性人工智慧的新型響應將集中於三個主要目標:
1.可防禦機器學習理論基礎的發展和基於它們的新防禦機制的詞彙;
2.在各種環境中建立和測試防禦系統;
3.構建一個新的測試平臺,用於表徵相對於威脅場景的機器學習防禦性。
通過這些相互依存的專案要素,GARD旨在建立具有嚴格標準的抗欺騙機器學習技術,以評估其穩健性。
GARD將探索許多潛在防禦的研究方向,包括生物學。Siegelmann表示,“我們期待產生的那種廣泛基於情景的防禦可被看到,例如,在免疫系統中,識別攻擊,贏得勝利,並記住攻擊,以便在未來的交戰中創造更有效的反應。”