2019年想晉級AI達人,這兩個概念至關重要!
全文共1942字,預計學習時長4分鐘
英國一家知名媒體將“技術後衝”(techlash)選為了2018年度關鍵詞。“技術後衝”是指公眾對科技巨頭與日俱增的敵意,這種現象2018年以來在全球蔓延,根本性地改變著科技巨頭所處的輿論環境。濫用資訊收集、資訊推送的擔憂正一步步變為現實,這也引發了民眾對科技巨頭的信任危機,以及對科技潮的抵制。
雖然許多導致“技術後衝”的事件都是由複雜的企業利益和缺乏治理或問責制引起的,但不可否認,資料科學和機器學習工程的實踐和這一年中一些最重要的商業和政治事件緊密相關。
正是在這種背景下,可解釋性和可理解性這兩個概念的理解變得愈加緊迫。隨著討論人工智慧倫理問題的繼續,這可能在2019年變得更加重要。
但什麼是可解釋性和可理解性?對於我們這些進行資料探勘,分析和科學研究的人來說,2019年實際上又意味著什麼呢?
機器學習的可解釋性和可理解性之間的區別
在機器學習和人工智慧中,可理解性和可解釋性通常可互換使用。雖然它們密切相關,但區分它們的差異是很有必要的,一旦深入研究機器學習系統,就會看到事情能有多複雜。
可理解性是指在系統內可以觀察到的因果的程度。或者換句話說,輸入或演算法引數發生變化後對將要發生的事情的預測程度。也就是當看到一個演算法時,你的反應會是:嗯!我知道這個演算法是在做什麼。
可解釋性是機器或深度學習系統的內部機制可以用人類語言解釋的程度。我們很容易忽略它與可理解性的細微差別,但你可以這樣想:可理解性是指能夠在不知道為什麼的情況下了解這個技術,可解釋性是能夠很好地在字面上解釋正在發生的什麼。
你可以換個方式想:假如你在學校做科學實驗,實驗或許是可以理解的,因為你可以看到你在做什麼,但只有你深入瞭解實驗的化學機理,它才可以被解釋。
這樣說可能有點粗略,但可以幫助你初步理解這兩個概念之間的關聯。
為什麼可理解性和可解釋性在人工智慧和機器學習中如此重要?
如果說2018年的科技抵制潮教了我們什麼東西,那就是雖然技術已經可以完全用於一些不太成熟的地方,但在很多方面,它都產生了不好的、歧視性的結果。
像醫療保健這樣的領域,如果想要部署人工智慧和深度學習系統,其中問責制和透明度問題尤為重要,如果在演算法中沒有改進的可理解性和最終的可解釋性,將會嚴重限制人工智慧的潛在作用。
但除了需要考慮法律和專業問題之外,還有一種觀點認為,即使在較簡單的商業場景中,提高可理解性和可解釋性也很重要。瞭解演算法實際如何工作有助於更好地使資料科學家和分析師的活動與組織的關鍵問題和需求保持一致。
用於提高機器學習可理解性的技術和方法
雖然透明度和倫理問題可能對資料科學家來說很抽象,但事實上,有許多實際的東西都可以用來提高演算法的可理解性和可解釋性。
演算法泛化
首先是提高演算法的泛化性。這聽起來很簡單,但並不容易。當你認為大多數機器學習工程只是以特定的方式應用演算法來揭示某個期望的結果時,模型本身變成了次要元素——它只是達到目的的手段。但是,如果改變這種態度而通過考慮演算法的整體執行狀況以及演算法執行的資料,那麼你就可以開始為提高可解釋性奠定堅實的基礎。
注意特徵的重要性
這個問題顯而易見但卻很容易忽略。仔細研究演算法中各種功能的設定方式,在處理各類問題中很實用,比如從業務調整問題到倫理問題。我們要有這種潛在意識——即對於不同特徵都要有不同的設定方式,這是向可理解性和可解釋性邁進的重要一步。
LIME:本地可解釋的模型—不可知解釋
LIME是研究人員開發的一種實際方法,可以讓演算法中發生的事情更加透明化。研究人員說,LIME可以解釋為“通過在預測範圍內學習一個可理解的模型,以可理解和正確的方式實現對任何分類器的預測”。
這在實踐中意味著LIME模型可以通過測試來開發模型的近似值,以檢視當模型中的某些方面出現變化時會發生什麼狀況。實質上,它是嘗試通過實驗對相同輸入重新建立輸出。
DeepLIFT(深度學習重要特點)
DeepLIFT是針對深度學習中比較棘手的領域而研發的有效模型。它通過一種反向傳播的方式工作:接受輸出,然後試圖通過“讀取”能改善原始輸出的各種神經元來不斷改進原始輸出。
從本質上講,它是一種可以挖掘演算法內部特徵選擇的方法(如名稱暗示的一樣)。
逐層相關性傳播
逐層相關傳播類似於DeepLIFT,因為它從輸出反向工作,識別神經網路中最相關的神經元,直到返回到輸入(比如一張影象)。
通過增加複雜性來應對複雜性:它能否提高透明度?
可解釋性和可理解性的核心問題是,需要你在開發過程中增加一個額外的步驟。實際上,你可能會新增多個步驟。從某個角度來看,這似乎是想通過更多的複雜性來解決複雜性。
某種程度上來說,這是事實。這在實踐中意味著如果我們要嚴肅地看待可解釋性和可理解性的問題,那麼在資料科學和工程的完成方式以及人們如何去相信這種完成方式上,還需要進行更廣泛的文化變革。這可能是真正有挑戰性的部分。
留言 點贊 發個朋友圈
我們一起分享AI學習與發展的乾貨
編譯組:張琪琦、胡婷
相關連結:
https://www.kdnuggets.com/2018/12/machine-learning-explainability-interpretability-ai.html