1. 程式人生 > >詳細解釋大數定律+中心極限定理(三)

詳細解釋大數定律+中心極限定理(三)

大數定律

  • 大數定律就以嚴格的數學形式表現了隨機現象的一個性質:平穩結果的穩定性(或者說頻率的穩定性)
  • 大數定律從理論上解決:用頻率近似代替概率的問題:P(A)nAn;用樣本均值近似代替理論均值:Eξ=1ni=1i=nξi

中心極限定理

當樣本量N逐漸趨於無窮大時,N個抽樣樣本的均值的頻數逐漸趨於正態分佈,其對原總體的分佈不做任何要求,意味著無論總體是什麼分佈,其抽樣樣本的均值的頻數的分佈都隨著抽樣數的增多而趨於正態分佈。

大數定律與中心極限定理之間的區別

  • 大數定律是說,n只要越來越大,我把這n個獨立同分布的數加起來去除以n得到的這個樣本均值(也是一個隨機變數)會依概率收斂到真值u,但是樣本均值的分佈是怎樣的我們不知道。
  • 中心極限定理是說,n只要越來越大,這n個數的樣本均值會趨近於正態分佈,並且這個正態分佈以u為均值,sigma^2/n為方差。
  • 綜上所述,這兩個定律都是在說樣本均值性質。隨著n增大,大數定律說樣本均值幾乎必然等於均值。中心極限定律說,他越來越趨近於正態分佈。並且這個正態分佈的方差越來越小。直觀上來講,想到大數定律的時候,你腦海裡浮現的應該是一個樣本,而想到中心極限定理的時候腦海裡應該浮現出很多個樣本

具體解釋的參考資料

建議兩個資料,擇其一進行仔細閱讀即可。

程式碼實現

大數定律的模型

import numpy as np
from numpy import random as
nprd True_P=0.5 def sampling(N): ## 產生Bernouli樣本 x=nprd.rand(N)<True_P return x M=10000 #模擬次數 xbar=np.zeros(M) N=np.array([i+1 for i in range(M)]) x=sampling(M) for i in range(M): if i==0: xbar[i]=x[i] else: xbar[i]=(x[i]+xbar[i-1]*i)/(i+1) ## 匯入matplotlib import
matplotlib.pyplot as plt ## 使圖形直接插入到jupyter中 %matplotlib inline # 設定影象大小 plt.rcParams['figure.figsize'] = (10.0, 8.0) plt.plot(N,xbar,label=r'$\bar{x}$',color='pink') ## xbar xtrue=np.ones(M)*True_P plt.plot(N,xtrue,label=r'$0.5$',color='black') ## true xbar plt.xlabel('N') plt.ylabel(r'$\bar{x}$') plt.legend(loc='upper right', frameon=True) plt.show() ## 畫圖

中心極限定理的模擬

import numpy as np
from numpy import random as nprd

def sampling(N):
    ## 產生一組樣本,以0.5的概率為z+3,0.5的概率為z-3,其中z~N(0,1)
    d=nprd.rand(N)<0.5
    z=nprd.randn(N)
    x=np.array([z[i]+3 if d[i] else z[i]-3 for i in range(N)])
    return x

N=[2,3,4,10,100,1000] # sample size
M=2000
MEANS=[]
for n in N:
    mean_x=np.zeros(M)
    for i in range(M):
        x=sampling(n)
        mean_x[i]=np.mean(x)/np.sqrt(10/n) ## 標準化,因為var(x)=10
    MEANS.append(mean_x)

## 匯入matplotlib
import matplotlib.pyplot as plt
import matplotlib.mlab as mlab
## 使圖形直接插入到jupyter中
%matplotlib inline
# 設定影象大小
plt.rcParams['figure.figsize'] = (10.0, 8.0)

x=sampling(1000)
plt.xlabel('x')
plt.ylabel('Density')
plt.title('Histogram of Mixed Normal')
plt.hist(x,bins=30,normed=1) ## histgram
plt.show() ## 畫圖

## 均值
ax1 = plt.subplot(2,3,1)
ax2 = plt.subplot(2,3,2)
ax3 = plt.subplot(2,3,3)
ax4 = plt.subplot(2,3,4)
ax5 = plt.subplot(2,3,5)
ax6 = plt.subplot(2,3,6)

## normal density
x=np.linspace(-3,3,100)
d=[1.0/np.sqrt(2*np.pi)*np.exp(-i**2/2) for i in x]

def plot_density(ax,data,N):
    ax.hist(data,bins=30,normed=1) ## histgram
    ax.plot(x,d)
    ax.set_title(r'Histogram of $\bar{x}$:N=%d' % N)

plot_density(ax1,MEANS[0],N[0])
plot_density(ax2,MEANS[1],N[1])
plot_density(ax3,MEANS[2],N[2])
plot_density(ax4,MEANS[3],N[3])
plot_density(ax5,MEANS[4],N[4])
plot_density(ax6,MEANS[5],N[5])


plt.show() ## 畫圖

參考文獻

1、漫談系列——大數定律
改文章直觀的解釋了弱/強大數定律,以及證明了切比雪夫不等式。
2、知乎問答
內容太多,並沒有仔細看,有意者可以仔細閱讀。

相關推薦

詳細解釋大數定律+中心極限定理

大數定律 大數定律就以嚴格的數學形式表現了隨機現象的一個性質:平穩結果的穩定性(或者說頻率的穩定性) 大數定律從理論上解決:用頻率近似代替概率的問題:P(A)≈nAnP(A)≈nAn;用樣本均值近似

統計學——中心極限定理R語言

中心極限定理用通俗的話來講就是,假設有一個服從(μ,σ2)的總體,這個總體的分佈可以是任意分佈,不用是正態分佈,既可以是離散的,也可以是連續的。我們從該分佈裡隨機取n個樣本x1,x2,...,xn,然後求這些樣本的均值x_mean,這個過程我們重複m次,我們就會得到x_me

流程中心使用詳情流程設計

屬性 時也 所有 流程設計 沒有 工作 font 會議紀要 二次開發 第4章流程使用說明 以【出差申請】流程為例,講述如何通過流程中心定義一個完整的流程。 4.1 新建分類 流程中心->流程設置->分類設置,新建【行政管理】分類,如下圖所示: 點擊【保存】後,界

攜程 Apollo 配置中心 | 學習筆記 自定義Spring Boot專案通過配置中心啟動專案

一、前言二、專案搭建   2.1 建立Spring Boot專案    因為專案用的是Eureka作為服務註冊與發現,因此這裡我加入了Eureka Client的依賴pom.xml檔案 <dependency> <grou

基本極限定理切比雪夫不等式,大數定律中心極限定理

人們在長期的實踐中發現,雖然個別事件在某次試驗中可能發生也可能不發生,但在大量重複實驗中卻呈現明顯的規律性,即一個隨機事件發生的頻率在某個固定數的附近搖擺,這就是所謂“頻率的穩定性”。 這裡介紹的就是概率論的理論基礎! 切比雪夫不等式 設隨機變數X的數學期望,方差,對任

中心極限定理 | central limit theorem | 大數定律 | law of large numbers

lar 導致 ber 品茶 question 出了 numbers .com 沒有 每個大學教材上都會提到這個定理,枯燥地給出了定義和公式,並沒有解釋來龍去脈,導致大多數人望而生畏,並沒有理解它的美。 《女士品茶》有感 待續~ 參考:怎樣理解和區分中

大數定律中心極限定理

大數定律 定義: 設X1,X2,...,Xn,...X_1,X_2,...,X_n,...X1​,X2​,...,Xn​,...為隨機變數序列,XXX為隨機變數,若對任意的正數ϵ\epsilonϵ有:l

機器學習學習筆記之二——大數定律中心極限定理以及極大似然估計理解與用法

  極大似然估計法常常出現在機器學習演算法的推導過程中,其使用場景或者說功能正是: 以已有樣本、已有公式去估計引數,最大可能的那個引數。   這樣來理解,極大似然估計法其實和機器學習演算法的目標都是一樣的。那麼極大似然估計法如何來用呢?    

中心極限定理以及其和大數定律的區別

大數定律是說,n只要越來越大,我把這n個獨立同分布的數加起來去除以n得到的這個樣本均值(也是一個隨機變數)會依概率收斂到真值u,但是樣本均值的分佈是怎樣的我們不知道。 中心極限定理是說,n只要越來越大,這n個數的樣本均值會趨近於正態分佈,並且這個正態分佈以u為均值,sigma^2/n為方差。 綜上所述,這兩

小數定律大數定律中心極限定理的理解和概括

(一)總述關係 3者有些關係的,先描述下三者的關係,如圖: (二)大數定律 大數定律,動畫演示(下圖盜圖),描述的是擲骰子,骰子每一面出現的概率是1/6,次數少的時候小數定律,次數多的時候期望接近平均數3.5, 3.5 = 1 * 1/6 + 2 * 1/6 + 3 *

概率論與數理統計--大數定律中心極限定理

大數定律 切比雪夫不等式 隨機變數X的數學期望E(X)=a,方差為D(X)=σ2,對任意ϵ>0,有 P(|X−a|≥ϵ)≤σ2ϵ2 切比雪夫大數定律 隨機變數X1,X2,X3…..Xn,

中心極限定理大數定律

Central limit theorem: We could be talking about melocular interactions and every time compound x interacts with compound y what m

【概率論與數理統計】小結6 - 大數定理中心極限定理

tween 每次 研究 1-1 var 1.2 displays 一個 alt 註:這兩個定理可以說是概率論中最重要的兩個定理。也是由於中心極限定理的存在,使得正態分布從其他眾多分布中脫穎而出,成為應用最為廣泛的分布。這兩個定理在概率論的歷史上非常重要,因此對於它們的研究也

機器學習數學|大數定理中心極限定理矩估計

機器學習中的數學 覺得有用的話,歡迎一起討論相互學習~Follow Me 原創文章,如需轉載請保留出處 本部落格為七月線上鄒博老師機器學習數學課程學習筆記 概率密度/概率分佈

中心極限定理大數定理理解

1.什麼是中心極限定理 有時候統計概率就像魔術一樣,能夠從少量資料中得出不可思議的強大結論。我們只需要對1000個美國人進行電話調查,就能去預測美國總統大選的得票數。 通過對為肯德基提供雞肉的加工廠生產的100塊雞肉進行病毒(沙門氏菌)檢測,就能得出這家工廠的所有肉類產品是否安全的結論。 這些“一概而論”的

利用均勻分佈和中心極限定理產生正態分佈高斯分佈

中心極限定理: 設隨機變數序列{Xi}相互獨立,具有相同的期望和方差,即E(Xi)=μ,D(Xi)=σ2,令Yn=X1+...+Xn,Zn=Yn−E(Yn)D(Yn)√=Yn−nμn√σ,則Zn→N(

中心極限定理及例題解析卡車超載問題

辛欽中心極限定理Central Limit Theorem:設從均值為μ、方差為σ^2;(有限)的任意一個總體中抽取樣本量為n的樣本,當n充分大時,樣本均值的抽樣分佈近似服從均值為μ、方差為σ^2/n的

中心極限定理大數定理

統計學習方法介紹經驗風險的概念(相關筆記)時,提及大數定理,下面是個人對大數定理以及跟它有點相近的中心極限定理的理解: 1.大數定理的意思就是說當樣本數夠大的時候,樣本均值近似相應隨機變數的期望。舉個擲骰子的例子,擲n次骰子,記錄每次正面朝上的點數,最終可以算

中心極限定理的形象理解

中心極限定理是統計學中的一個重要定理,本文的目的是形象地講解中心極限定理,不列舉公式。 本篇部落格是基於猴子在知乎上的回答,進行的整理。非常感謝猴子的講解。 目錄 1 什麼是中心極限定理 有時候統計概率就像魔術一樣,能夠從少

中心極限定理的證明

中心極限定理是作為概率論的基礎定理,然而很多教科書都沒有給出完整證明或引證出處,嚴重影響到了學習的樂趣。通過在網上查詢資料,感謝網友的分享,最終根據傅立葉變換證明該定理,過程很簡短,也不要求有太深的數學知識面,下面給出定理的完整證明,首先介紹中心極限定理的定義