1. 程式人生 > >數學(3) 各種數學分佈,高斯,伯努利,二項,多項,泊松,指數,Beta,Dirichlet

數學(3) 各種數學分佈,高斯,伯努利,二項,多項,泊松,指數,Beta,Dirichlet

打算這裡記錄各種數學分佈,隨時更新

正態分佈

正態分佈又名高斯分佈。

若隨機變數X服從一個數學期望為μ,標準差為σ的正態分佈,則記為XN(μ,σ2)

其中期望μ決定了分佈位置,標準差σ決定了分佈幅度。

概率密度函式為:

f(x)=1σ2πe(xμ)22σ2
μ=0σ=1,則稱為標準正態分佈。

伯努利分佈 Bernoulli

伯努利分佈又名二點分佈,0-1分佈。

首先介紹伯努利實驗。只有兩種可能結果的單次隨機實驗叫做伯努利實驗,即可以用是與否來概括實驗結果。如果獨立重複n次伯努利實驗,則稱之為n重伯努利實驗。

若進行一次伯努利實驗,且P(X=1

)=p,P(X=0)=1p,那麼稱隨機變數X服從伯努利分佈。

伯努利分佈的概率密度函式為:

f(x)=p,1p,0,x=1x=0

二項分佈 Binomial

二項分佈是n重伯努利實驗成功次數所服從的離散概率分佈。

假設n重伯努利實驗的成功次數為X,成功的概率為p,那麼我們稱X~B(n,p)。

二項分佈的概率密度函式是:

f(x)=Cxnpx(1p)nx,x{0,1,2,...,n}
則伯努利分佈是二項分佈的一種特殊表現形式,即n=1。

經典案例是擲硬幣,即硬幣正面朝上的概率為p,那麼擲n次硬幣,正面朝上的次數服從二項分佈。

多項式分佈 Multinomial

多項式分佈是二項分佈的推廣,仍然是進行n次獨立實驗,但是每次實驗的結果不再只有兩種,而是可以有m種。這m種結果彼此互斥,且發生的概率之和為1。
多項式分佈的概率密度函式是:

f(X)=f(x1,x2,...xm)()i=1mxi=n,i=1mpi=1=Cx1npx11Cx2nx1px22...Cxmnx1x2..xm1pxmm=n!x1!x2!...xn!px11px22...pxmm=n!x1!x2!...xn!i=1mpx

相關推薦

數學(3) 各種數學分佈,指數BetaDirichlet

打算這裡記錄各種數學分佈,隨時更新 正態分佈 正態分佈又名高斯分佈。 若隨機變數X服從一個數學期望為μ,標準差為σ的正態分佈,則記為X~N(μ,σ2)。 其中期望μ決定了分佈位置,標準差σ決定了分佈幅度。 概率密度函式為: f(x)=1σ2π

20.方差/標準差/數學期望/正態分佈/函式(數學篇)--- OpenCV從零開始到影象(人臉 + 物體)識別系列

本文作者:小嗷 微信公眾號:aoxiaoji 吹比QQ群:736854977 本文你會找到以下問題的答案: 方差 標準差 數學期望 正態分佈 高斯函式 2.1 方差 方差描述隨機變數對於數學期望的偏離程度。(隨機變數可以

第十一次作業——正太(多項式

1.使用樸素貝葉斯模型對iris資料集進行花分類 嘗試使用3種不同型別的樸素貝葉斯: 高斯分佈型 多項式型 伯努利型 2.使用sklearn.model_selection.cross_val_score(),對模型進行驗證。 垃圾郵件分類 資料準備: 用csv讀取郵件資料

HDU - 5755:Gambler Bo (開關問題%3意義下的消元)

關於 tin () 不用 sin main std swa -- pro:給定N*M的矩陣,每次操作一個位置,它會增加2,周圍4個位置會增加1。給定初始狀態,求一種方案,使得最後的數都為0;(%3意義下。 sol:(N*M)^3的復雜度的居然過了。 好像

概率分佈---分佈

條件高斯分佈 邊緣高斯分佈 高斯變數的貝葉斯定理 高斯分佈的最大似然估計 順序估計 高斯分佈的貝葉斯推斷 學生t

分佈分佈下的最大似然估計

最大似然估計: 由於每一個樣本是否出現都對應著一定的概率,而且一般來說這些樣本的出現都不那麼偶然,因此我們希望這個概率分佈的引數能夠以最高的概率產生這些樣本。如果觀察到的資料為D1 , D2 , D3 ,…, DN ,那麼極大似然的目標如下: 通常上面這個概率的計算並不容易。

分佈分佈分佈、貝塔分佈、狄克雷分佈分佈

伯努利分佈: 伯努利分佈(Bernoulli distribution)又名兩點分佈或0-1分佈,介紹伯努利分佈前首先需要引入伯努利試驗(Bernoulli trial)。 伯努利試驗是隻有兩種可能結果的單次隨機試驗,即對於一個隨機變數X而言: 伯努利試驗都可以表達為“是或否”

C++ 產生均勻分佈 分佈 函式

class Sample { public: static int uniform(int from, int to); static double uniform(); static double gaussian(double sigma); }; static double

【拜小白opencv】30-平滑處理3線性濾波之——濾波

常言道“溫故而知新”,寫此文章就是對自己目前學習內容的小小的總結與記錄。 本文力求用最簡潔的語言,詳細的程式碼將此部分內容講解清楚,但由於博主同樣是剛剛接觸OpenCV,或許表達上有些瑕疵,還望讀

分類-3-生成學習-2-判別分析、協方差

多元高斯分佈 多變數高斯分佈描述的是 n維隨機變數的分佈情況,這裡的μ變成了向量, σ也變成了矩陣Σ。寫作N(μ,Σ)。其中Σ(協方差矩陣)是一個半正定的矩陣,μ是高斯分佈的均值,下面給出它的概率密度函式: begin-補充-協方差和協方差矩

極大既然估計和分布推導最小乘、LASSO、Ridge回歸

baidu 器) ridge 連續概率 重要 eal 函數 應用 map 最小二乘法可以從Cost/Loss function角度去想,這是統計(機器)學習裏面一個重要概念,一般建立模型就是讓loss function最小,而最小二乘法可以認為是 loss function

分佈分佈Beta分佈分佈Dirichlet分佈與他們之間的關係以及在LDA中的應用

  在看LDA的時候,遇到的數學公式分佈有些多,因此在這裡總結一下思路。 一、伯努利試驗、伯努利過程與伯努利分佈 先說一下什麼是伯努利試驗: 維基百科伯努利試驗中: 伯努利試驗(Bernoulli trial)是隻有兩種可能結果的單次隨機試驗。 即:對於一個隨機變數而言,P(X

Python實現-----使用隨機梯度演算法對核模型進行最小乘學習法

(1)高斯核模型                           其中為樣本。可以看出,核模型的均值是以的元素進行計算的。 (2)隨機梯度下降法 (3)python 程式碼實現 import numpy as np import matplotlib

樸素貝葉的三個常用模型:、多項式、

樸素貝葉斯是一個很不錯的分類器,在使用樸素貝葉斯分類器劃分郵件有關於樸素貝葉斯的簡單介紹。 若一個樣本有n個特徵,分別用x1,x2,…,xnx1,x2,…,xn表示,將其劃分到類ykyk的可能性P(yk|x1,x2,…,xn)P(yk|x1,x2,…,xn)為:

分類-3-生成學習-3-樸素貝葉模型、laplace平滑、多元事件模型、多項式事件模型

多元伯努利事件模型( multi-variate Bernoulli event model) 在 GDA 中,我們要求特徵向量 x 是連續實數向量。如果 x 是離散值的話,可以考慮採用樸素貝葉斯的分類方法。 假如要分類垃圾郵件和正常郵件。 我們用

51nod 1228 (數 + 組合數學

題目: 求這個∑i=1nik 題目給你 n , k。 分析: 伯努利數於冪數和的關係: 伯努利數: 這麼多性質可以直接寫了 Code: import java.util.Scanner; public class Main {

阿裏騰訊內部十個大數據你都有做過嗎?

大數據隨著社會的進步,大數據的高需求,高薪資,高待遇,促使很多人都來學習和轉行到大數據這個行業。學習大數據是為了什麽?成為一名大數據高級工程師。而大數據工程師能得到高薪、高待遇的能力在哪?自然是項目經驗。下面給大家大概介紹一下在阿裏的"雙11"、"雙12"、"

分佈分佈、幾何分佈、超幾何分佈分佈

導語        對於任何一個學習概率論的童鞋來說,各種分佈都是很頭痛的一件事情,本篇主要討論的是離散型隨機變數. 伯努利分佈        伯努利分佈就

機器學習之貝葉分類器bernoulliNB

機器學習之伯努利貝葉斯分類器bernoulliNB # -*- coding: utf-8 -*- """ Created on Sun Nov 25 11:45:17 2018 @author: muli """ from sklearn import naive

python 分佈

伯努利分佈 是一種離散分佈,有兩種可能的結果。1表示成功,出現的概率為p(其中0<p<1)。0表示失敗,出現的概率為q=1-p。這種分佈在人工智慧裡很有用,比如你問機器今天某飛機是否起飛了,它的回覆就是Yes或No,非常明確,這個分佈在分類演算法裡使用比較多,因此在這裡先學習 一下。