1. 程式人生 > >深度學習中的概率知識詳解

深度學習中的概率知識詳解

1. 基礎概念

隨機變數(連續,離散): 對可能狀態的描述, 在機器學習演算法中,每個樣本的特徵取值,標籤值都可以看作是一個隨機變數,包括離散型隨機變數和連續型隨機變數
概率分佈: 用來指定每個狀態的可能性, 對於離散型的概率分佈,稱為概率質量函式(Probability Mass Function, PMF),對於連續性的變數,其概率分佈叫做概率密度函式(Probability Density Function, PDF).
邊緣概率分佈:如果我們知道了一組變數的聯合概率分佈,但想要了解其中一個子集的概率分佈,這個子集的概率分佈稱為邊緣概率分佈
聯合概率分佈:兩個或兩個以上隨機隨機變數聯合地概率分佈情況。
相互獨立:

如果xX,yY,P(X=x,Y=y)=P(X=x)P(Y=y),那麼就稱隨機變數X和Y是相互獨立的。
條件獨立: 如果xX,yY,zZ,P(X=x,Y=yZ=z)=P(X=xZ=z)P(Y=yZ=z),那麼就稱隨機變數X和Y是關於Z相互獨立的。
貝葉斯準則: 在已知P(yx)P(x)的情況下,P(xy)P(x)P(yx)P(y),貝葉斯準則經常被用在已知引數的先驗分佈情況下求後驗分佈。
期望:
函式f(x)在某個分佈P(x)下的平均表現情況,記為ExP[f(x)]=p(x)f(x)dx
方差: 函式f(x)在某個分不下表現的差異性,記為Var(f(x)=E[(f(x)E[f(x)])2]
協方差: 兩個變數之間線性相關的強度,記為Cov(f(x),g(x))=E[(f(x)E[f(x)])(g(x)E(g(x)))]
條件概率: 求B條件下, A發生的概率:

P(A|B)=P(AB)P(B)
條件概率的鏈式法則:
P(a,b,c)=P(a|b|c)P(b,c)P(b,c)=P(b|c)P(c)P(a,b,c)=P(a|b,c)P(b|c)P(c)
資訊熵: 描述某個概率分佈中不確定性的度量,記為H(x)=ExP[logP(x)]
交叉熵: 描述兩個概率分佈之間相似度的一個指標,在機器學習中經常使用交叉熵作為分類任務的損失函式,記為