1. 程式人生 > >數據處理不等式:Data Processing Inequality

數據處理不等式:Data Processing Inequality

ext right 工程 log src enter 可用 proc 互信

我是在差分隱私下看到的,新解決方案的可用性肯定小於原有解決方案的可用性,也就是說信息的後續處理只會降低所擁有的信息量。

那麽如果這麽說的話為什麽還要做特征工程呢,這是因為該不等式有一個巨大的前提就是數據處理方法無比的強大,比如很多的樣本要分類,我們做特征提取後,SVM效果很好 ,但是如果用DNN之類的CNN、AuToEncoder,那麽效果反而不如原來特征。這樣就能理解了,DNN提取能力更強,那麽原始就要有更多的信息,在新特征下無論怎麽提取,信息就那麽多。

信息量越多越好麽?肯定不是,否則為什麽PCA要做降噪和去冗余呢?我們的目的是有效的信息最大化。

另外一種理解就是從互信息不為0(信息損失)來解釋。

技術分享

從而

技術分享

那麽如何在處理過程中不丟失有效信息呢?這時候就需要數學上的充分統計量,也就是g是y的充分統計量。

數據處理不等式:Data Processing Inequality