1. 程式人生 > >二項分佈均值和方差的簡單推導

二項分佈均值和方差的簡單推導

   前一篇文章《二項分佈》中說過,伯努利分佈(也稱為兩點分佈或0-1分佈)是二項分佈在n=1時的特例。我們先看伯努利分佈的均值和方差的推導。

   根據離散型隨機變數均值和方差的定義,若離散型隨機變數X的分佈列為:

X x1 x2 ... xi ... xn
P p1 p2 ... pi ... pn

   則稱E(X)=x1*p1+x2*p2+...+...xi*pi+...+xn*pn為隨機變數X的均值或數學期望,稱為隨機變數X的方差。

   伯努利分佈的分佈列為:

X 0 1
P 1-p p

   則根據離散型隨機變數的均值和方差定義:
E(X)=0*(1-p)+1*p=p

D(X)=(0-E(X))

2(1-p)+(1-E(X))2p=p2(1-p)+(1-p)2p=p2-p3+p3-2p2+p=p-p2=p(1-p)

   對於二項分佈X~B(n,p)X表示的是n次伯努利試驗中事件發生次數的隨機變數。用Xi表示第i次伯努利試驗中的隨機變數,那麼n次伯努利試驗總的隨機變數X可以表示成:

X=X1+X2+...+Xi+...+Xn

   一直沒有找到滿意的隨機變數和、差、積、商的物理/幾何/現實意義,如果有了解的朋友不妨留言,不甚感激。

   根據均值和方差的性質,如果兩個隨機變數X,Y相互獨立,那麼:

E(X+Y)=E(X)+E(Y)

D(X+Y)=D(X)+D(Y)

   對於二項分佈X~B(n,p),每一次伯努利試驗都相互獨立,因此:

E(X)=E(X1)+E(X2)+...+E(Xi)+...+E(Xn)=p+p+...+p+...p=np

D(X)=D(X1)+D(X2)+...+D(Xi)+...+D(Xn)=p(1-p)+p(1-p)+...+p(1-p)+...+p(1-p)=np(1-p)

相關推薦

分佈均值簡單推導

   前一篇文章《二項分佈》中說過,伯努利分佈(也稱為兩點分佈或0-1分佈)是二項分佈在n=1時的特例。我們先看伯努利分佈的均值和方差的推導。    根據離散型隨機變數均值和方差的定義,若離散型隨機

分佈期望與的證明

二項分佈是概率統計裡面常見的分佈,是指相互獨立事件n次試驗發生x次的概率分佈,比較常見的例子。種子萌發試驗,有n顆種子,每顆種子萌發的概率是p,發芽了x顆的概率就服從二項分佈。 如果還是迷茫,就聽我說說故事,在古代,大概明末清初的時候,瑞士有個家族

太深了,梯度傳不下去,於是有了highway。 幹脆連highway的參數都不要,直接變殘,於是有了ResNet。 強行穩定參數的均值和方差,於是有了BatchNorm。RNN梯度不穩定,於是加幾個通路門控,於是有了LSTM。 LSTM簡化一下,有了GRU。

梯度 直接 ID orm rop 發展 均值 nor 噪聲 請簡述神經網絡的發展史sigmoid會飽和,造成梯度消失。於是有了ReLU。ReLU負半軸是死區,造成梯度變0。於是有了LeakyReLU,PReLU。強調梯度和權值分布的穩定性,由此有了ELU,以及較新的SELU

如何計算資料集均值

  import os from PIL import Image import matplotlib.pyplot as plt import numpy as np from scipy.misc import imread filepath = '/home/JPEGImag

如何計算數據集均值

chan rom port pyplot xrange 所有 nbsp otl read import os from PIL import Image import matplotlib.pyplot as plt import numpy as np from

基於Opencv計算影象的均值

實現每幅影象的每一個通道求均值和方差。 //這裡是三通道的影象    for(i=0;i<3;i++)  //求均值     {         m[i]=0;         for(x=0;x<src->height;x++)         {  

Machine Learning第六講[應用機器學習的建議] --()診斷偏差

一、Diagnosing Bias vs. Variance(診斷偏差 vs. 方差) 如果一個演算法表現的不理想,多半是出現兩種情況,一種情況是偏差比較大(這種情況是欠擬合情況),另一種是方差比較大(這種情況是過擬合的情況)。下圖是欠擬合、剛好、過擬合三種情況的Size-price圖(仍然是預

Python第三方庫——Matplotlib_繪製資料的均值

現在有一組資料,我們想繪製同時包含資料均值和標準偏差的圖——ErrorBar。 import random #在區間[5,15]中生成15個數據 x = np.random.randint(5, 15, 15) mean = np.mean(x) std_de

利用matlab求影象均值的幾種方法

% 求一副灰度影象的均值 close all; clear; clc; i=imread('d:/lena.jpg'); %載入真彩色影象 i=rgb2gray(i); %轉換為灰度圖 i=double(i); %將uint8型轉換為double型,否則不能計算統計量 % avg1=mean(i,1);

matlab提升(1):用matlab求影象的均值

一、求均值 % 求一副灰度影象的均值 close all; clear; clc; i=imread('d:/lena.jpg'); %載入真彩色影象 i=rgb2gray(i); %轉換為灰度圖 i=double(i); %將uint8型轉換為doub

到現在才理解高斯分佈均值為什麼是01

問題的來源,如圖所示:為什麼標準正態分佈的期望值0,方差為1呢,如果是針對x變數,期望值為0可以理解,那麼方差為1怎麼理解呢,顯然不可能為1,如果針對y變數,顯然所有值都大於0,怎麼會期望值會大於0呢: 先看數學期望的定義: 期望值本身是對所有值進行加權的過程,是針對一個變數存在的;每

pku 3682 King Arthur's Birthday Celebration(負分佈、帕斯卡分佈以及期望公式的應用)

題意如此理解:國王過生日要舉辦宴會,以拋硬幣來決定宴會的結束:當國王舉行第k次的生日,則每天拋一次硬幣,硬幣正面概率為p,反面則為(1-p),則當國王拋到第k次正面硬幣的情況下,結束生日party,而每天生日party的開銷為一個a0=1,d=2的等差數列,問國王生日part

伯努利分佈分佈、Beta分佈、多分佈Dirichlet分佈與他們之間的關係,以及在LDA中的應用

  在看LDA的時候,遇到的數學公式分佈有些多,因此在這裡總結一下思路。 一、伯努利試驗、伯努利過程與伯努利分佈 先說一下什麼是伯努利試驗: 維基百科伯努利試驗中: 伯努利試驗(Bernoulli trial)是隻有兩種可能結果的單次隨機試驗。 即:對於一個隨機變數而言,P(X

泊松分佈的期望推導

泊松分佈是一個離散型隨機變數分佈,其分佈律是: P(X=k)=λke−λk! 根據離散型隨機變數分佈的期望定義,泊松分佈的期望: E(X)=∑k=0∞k⋅λke−λk! 因為k=0時

概率論 基本概率模型、分佈、期望

這段時間校招,發現很多筆試都是概率論的題目,拿出課本寫下來總結(不涉及組合和數理統計)。 基本概念 等可能概型(古典概型) 特點 試驗的樣本空間只包含有限個元素; 試驗中每個基本事件發生的可能性相同。 公式 設試驗的樣本空間為S

分佈泊松分佈,二者的關係

離散型隨機變數中,經典的兩個分佈為二項分佈和泊松分佈。 二項分佈的定義 泊松分佈的定義 注意 一,對泊松分佈定義的右邊式子,對k=0,1,2,….求和的結果為1,即所有事件的概率之和為1。

高斯分佈均值,協的計算及matlab實現

今天看論文的時候又看到了協方差矩陣這個破東西,以前看模式分類的時候就特困擾,沒想到現在還是搞不清楚,索性開始查協方差矩陣的資料,惡補之後決定馬上記錄下來,嘿嘿~本文我將用自認為循序漸進的方式談談協方差矩陣。 統計學的基本概念 學過概率統計的孩子都知道,統計裡最

數字訊號處理中均值、均值、均計算它們的物理意義

1 均值均值表示訊號中直流分量的大小,用E(x)表示。對於高斯白噪聲訊號而言,它的均值為0,所以它只有交流分量。2 均值的平方均值的平方,用{E(x)}^2表示,它表示的是訊號中直流分量的功率。3 均方值均方值表示訊號平方後的均值,用E(x^2)表示。均方值表示訊號的平均功率

指數分佈的期望推導

從前期的文章《泊松分佈》中,我們知道泊松分佈的分佈律是: P(X(t)=k)=(λt)ke−λtk! λ是單元時間內事件發生的次數。如果時間間隔t內事件發生的次數為0,則: P(X>t)=(λt)0e−λt0!=e−λt 反過來,在時間間隔t內

幾何分佈分佈有什麼區別?

● 每週一言 越長大越渺小。 導語 各種常見的分佈中,二項分佈和幾何分佈經常同時出現,在前面講泊松分佈的時候也簡單提到了二項分佈。那麼,幾何分佈是什麼分佈?和二項分佈有什麼區別? 幾何分佈 講泊松分佈的時候提到,二項分佈的概率公式如下: P=