1. 程式人生 > >概率論 基本概率模型、分佈、期望和方差

概率論 基本概率模型、分佈、期望和方差

這段時間校招,發現很多筆試都是概率論的題目,拿出課本寫下來總結(不涉及組合和數理統計)。

基本概念

等可能概型(古典概型)

特點

  • 試驗的樣本空間只包含有限個元素;
  • 試驗中每個基本事件發生的可能性相同。

公式

設試驗的樣本空間為S={e1,e2,e3,,en},若事件A包含k個基本事件,即A={ei1}{ei1}{eik},這裡i1,i2,,ik1,2,,n中k個不同的數。則有:

P(A)=j=1kP({eij})=kn=AS

例題

  • 將一枚硬幣拋擲三次,恰有一次出現正面的概率;
  • 袋子裡裝小球,放回抽樣和不放回抽樣;
  • n個人中至少有兩人生日相同的概率。

    假設每人的生日在一年365天中任一天是等可能的,即1365,則隨機選取n個人,生日各不相同的概率是:

    365365(365n+1)365n
    所以n個人至少兩人生日相同的概率是:
    p=1365365(365n+1)365n
n 20 23 30 40 50 60 100
p 0.411 0.507 0.706 0.891 0.970 0.997 0.999 999 7

條件概率

條件概率定義

設A,B是兩個事件,且P(A)>0,稱

P(B|A)=P(AB)P(A
)
為在事件A發生的條件下,事件B發生的條件概率

乘法定理

設P(A)>0,則有

P(AB)=P(B|A)P(A)

全概率公式

設試驗E的樣本空間為S,A為E的事件,B1,B2,,Bn的一個劃分,且P(Bi)>0(i1,2,,n),則

P(A)=P(A|B1)P(B1)+P(A|B2)P(B2)++P(A|Bn)P(Bn)

貝葉斯公式

設試驗E的樣本空間為S,A為E的事件,B1,B2,,Bn為S的一個劃分,且P(A)>0,P(Bi)>0(i=1,2,,n),則

P(Bi|A)=P(A|Bi)P(Bi)kj=1P(A|Bj)P(Bj)

離散型隨機變數

0-1分佈

設隨機變數X只可能取0與1兩個值,它的分佈律是

P{X=k}=pk(1p)1k,k=

相關推薦

泊松分佈期望推導

泊松分佈是一個離散型隨機變數分佈,其分佈律是: P(X=k)=λke−λk! 根據離散型隨機變數分佈的期望定義,泊松分佈的期望: E(X)=∑k=0∞k⋅λke−λk! 因為k=0時

指數分佈期望推導

從前期的文章《泊松分佈》中,我們知道泊松分佈的分佈律是: P(X(t)=k)=(λt)ke−λtk! λ是單元時間內事件發生的次數。如果時間間隔t內事件發生的次數為0,則: P(X>t)=(λt)0e−λt0!=e−λt 反過來,在時間間隔t內

概率論 基本概率模型分佈期望

這段時間校招,發現很多筆試都是概率論的題目,拿出課本寫下來總結(不涉及組合和數理統計)。 基本概念 等可能概型(古典概型) 特點 試驗的樣本空間只包含有限個元素; 試驗中每個基本事件發生的可能性相同。 公式 設試驗的樣本空間為S

概率論-----期望

知識點: 一:均值和協方差      1.當X,Y無關時,E(XY)=E(X)E(Y)        2.D(X)=E(X^2)-(E(X))^2       此時,E(X(X+Y-2))=E(X^2+XY-2X)=E(X^2)+E(XY)-2E(X) 二:PD

幾何分佈及其期望

幾何分佈(Geometric distribution)是離散型概率分佈。其中一種定義為:在n次伯努利試驗中,試驗k次才得到第一次成功的機率。詳細的說,是:前k-1次皆失敗,第k次成功的概率。 公式:X ~ G (p) 其中事件A發生的概率為p,以X記A首次發生所進行

期望

期望 離散型 連續型 意義 例題 方差 定義 意義 期望 離散型 E(x)=∑ixipi 連續型 E(x)=∫+∞−∞xf(x)dx 意思就是概率下的加權值,

數理統計(一)-期望

####################################################################################### ################################################

聯合概率與聯合分佈條件概率與條件分佈邊緣概率與邊緣分佈貝葉斯定理生成模型(Generative Model)判別模型(Discriminative Model)的區別

在看生成模型和判別模型之前,我們必須先了解聯合概率與聯合分佈、條件概率與條件分佈、邊緣概率與邊緣分佈、貝葉斯定理的概念。 聯合概率與聯合概率分佈: 假設有隨機變數X與Y, 此時,P(X=a,Y=b)用於表示X=a且Y=b的概率。這類包含多個條件且所有條件同時成立的概率稱為聯合概率。聯合概

數理統計基本介紹以及介紹總體樣本

img 分享圖片 In 分享 alt info 介紹 技術分享 樣本 數理統計基本介紹以及介紹總體、樣本和方差

機器學習數學|概率論基礎常見概型分佈期望

機器學習中的數學 覺得有用的話,歡迎一起討論相互學習~Follow Me 原創文章,如需轉載請保留出處 本部落格為七月線上鄒博老師機器學習數學課程學習筆記 概率論 對概率的認識,x表示一個事件,則P(x)表示事件發生的概率,其中不

概率統計:數學期望,協,相關系數,矩

es2017 ima mage 協方差 .com 相關系數 png nbsp 數學 概率統計:數學期望,方差,協方差,相關系數,矩

偏差(bias)(variance)——KNN的K值RF樹的數量對biasvariance的影響

機器 image str 領域 什麽 認識 綜合 10個 機器學習算法 1.前言:為什麽我們要關心模型的bias和variance?   大家平常在使用機器學習算法訓練模型時,都會劃分出測試集,用來測試模型的準確率,以此評估訓練出模型的好壞。但是,僅在一份測試集上測試,存在

二項分佈期望的證明

二項分佈是概率統計裡面常見的分佈,是指相互獨立事件n次試驗發生x次的概率分佈,比較常見的例子。種子萌發試驗,有n顆種子,每顆種子萌發的概率是p,發芽了x顆的概率就服從二項分佈。 如果還是迷茫,就聽我說說故事,在古代,大概明末清初的時候,瑞士有個家族

概率統計與機器學習:期望,數學期望,樣本均值,樣本之間的區別

1.樣本均值:我們有n個樣本,每個樣本的觀測值為Xi,那麼樣本均值指的是 1/n * ∑x(i),求n個觀測值的平均值 2.數學期望:就是樣本均值,是隨機變數,即樣本數其實並不是確定的 PS:從概率

估計偏差

- 本文首發自公眾號:[RAIS](https://ai.renyuzhuo.cn/about) ## 前言 本系列文章為 [《Deep Learning》](https://ai.renyuzhuo.cn/books/DeepLearning) 讀書筆記,可以參看原書一起閱讀,效果更佳。 ## 估計

到現在才理解高斯分佈的均值與為什麼是01

問題的來源,如圖所示:為什麼標準正態分佈的期望值0,方差為1呢,如果是針對x變數,期望值為0可以理解,那麼方差為1怎麼理解呢,顯然不可能為1,如果針對y變數,顯然所有值都大於0,怎麼會期望值會大於0呢: 先看數學期望的定義: 期望值本身是對所有值進行加權的過程,是針對一個變數存在的;每

偏差(Bias)(Variance)——機器學習中的模型選擇

模型效能的度量 在監督學習中,已知樣本 $(x_1, y_1),(x_2, y_2),...,(x_n, y_n)$,要求擬合出一個模型(函式)$\hat{f}$,其預測值$\hat{f}(x)$與樣本實際值$y$的誤差最小。 考慮到樣本資料其實是取樣,$y$並不是

數學期望E(X) D(X)

數學期望 :  1.設X是隨機變數,A,B是常數,則E(AX+B)=CE(X)+B 2.設X,Y是任意兩個隨機變數,則有E(X+Y)=E(X)+E(Y).3.設X,Y是相互獨立的隨機變數,則有E(XY)=E(X)E(Y) 方差:  1、設A是常數,則D(A)=0  2、設

高斯分佈中均值,,協的計算及matlab實現

今天看論文的時候又看到了協方差矩陣這個破東西,以前看模式分類的時候就特困擾,沒想到現在還是搞不清楚,索性開始查協方差矩陣的資料,惡補之後決定馬上記錄下來,嘿嘿~本文我將用自認為循序漸進的方式談談協方差矩陣。 統計學的基本概念 學過概率統計的孩子都知道,統計裡最

期望,協,標準,協矩陣

一些公式 會用到的函式 期望:mean 方差: var 協方差:cov 標準差 :std 相關係數:暫時沒找到 具體的各個函式用法見連結 補充的說明: 協方差矩陣計算的是不同維度之間的