1. 程式人生 > >線性代數之六:特徵值與特徵向量

線性代數之六:特徵值與特徵向量

6.1 特徵值與特徵向量

特徵向量:若A為n階方陣,如果存在一個非零向量x使得Ax=λx,則稱標量λ為特徵值(eigenvalue),稱x為屬於λ的特徵向量(eigenvector)。

特徵向量與零度空間:方程Ax=λx可以寫為(AλI)x=0,因此λ為特徵值的充要條件是方程有一非平凡解,也即零度空間N(AλI)中不僅只有零解,其中任意非零向量均為屬於λ的特徵向量。子空間N(AλI)稱為對應於λ的特徵空間。

特徵方程(AλI)x=0有非零解的充要條件是矩陣AλI為奇異的,即det(AλI)=0,稱此方程為特徵方程。特徵方程的根即A的特徵值。如果方程有重根,且重根也計數,則特徵方程恰有n個根,其中可能會有重複,也可能會是複數。

特徵值的性質:

  • 矩陣A的行列式的值為所有特徵值的積
  • 矩陣A的對角線元素和稱為A的跡(trace)等於特徵值的和

相似矩陣的特徵值:若方陣A和B相似,則這兩個矩陣有相同的特徵多項式,且它們有相同的特徵值。

使用numpy計算矩陣的特徵值與特徵向量:

import numpy as np
A=np.array([[3,2],[3,-2]])
w,v = np.linalg.eig(A) 
print w #4,-3 特徵值
print v #對應的特徵向量[[ 0.89442719, -0.31622777],
                        [ 0.4472136 ,  0.9486833
]]

6.2 對角化

6.2.1 基本概念

定理:若λ1,λ2,...,λk為n階矩陣A的不同特徵值,相應的特徵向量為x1,x2,...,xk,則x1,x2,...,xk線性無關。

可對角化:若存在一個非奇異的矩陣X和一個對角矩陣D,使用n階方陣A滿足

X1AX=D 則稱A為可對角化(diagonalizable),稱X將A對角化。X的列向量為A的特徵向量,D的對角元素為A的相應的特徵值。一般地有:
Ak=XDkX1=Xλk1λk2λknX1

定理:方陣A是可對角化的,當且僅當A有n個線性無關的特徵向量。

退化矩陣:若n階方陣A有少於n個線性無關的特徵向量,則A是退化的(defective),退化矩陣不可對角化。

6.2.2 馬爾可夫鏈

馬爾可夫過程:對一個試驗,若其每一步的輸出都取決於概率,則稱為一個隨機過程(stochastic process)。馬爾可夫過程(Markov process)是隨機過程,它有如下性質:

  • 可能的輸出集合或狀態是有限的
  • 下一步輸出的概率僅依賴於前一步的輸出
  • 概率相對於時間是常數

馬爾可夫鏈
狀態之間的遷移概率可以表示為遷移矩陣A,其第i列表示由第i個狀態向其他狀態變遷的概率,A的每一列元素均為非負的,且和為1。

若初始狀態集記為x0,並記後續各次狀態集為xi,則後續狀態集可通過矩陣乘法計算得到:xi=Aix0,並稱xi的序列是馬爾可夫鏈。

定理:若一個馬爾可夫鏈的轉移矩陣為A,且其收斂到一個穩態向量x,則x為一個概率向量,λ=1為其一個特徵值,且x為屬於這個特徵值的特徵向量。

定理:若馬爾可夫鏈的轉移矩陣A的其他特徵值均不大於1,且存在λ=1,稱其主特徵值(dominant eiganvalue),此時轉移矩陣A可使用得馬爾可夫鏈收斂到穩定向量。

馬爾可夫過程的應用
PageRank演算法將網頁瀏覽過程看成馬爾可夫過程,其轉移矩陣A為n*n的,目前n超過200億。

A的(i,j)元素表示從網站j到i的跳轉概率(可由瀏覽歷史統計出來),可證遷移矩陣存在穩態向量,隨著瀏覽的進行最終可以達到惟一的穩態向量x,即到達某個站點k,向量中的元素xk的確定了網站k的整體分級。

進行網頁搜尋時,首先尋找所有和關鍵字匹配的網頁,然後將這些網頁按照它們的網頁分級遞減的順序列出來。

6.2.3 矩陣指數

由實數的泰勒級數展開式:

ex=1+x+12!x2+...+1n!xn

若對任何的n*n矩陣A,可定義矩陣指數:

eA=I+A+12!A2+...+1n!An

在對角矩陣的情況下,容易計算

eD=eλ1eλ2eλn

對一般的矩陣A,計算比較困難,但若A是可對角化的,則:eA=XeDX1

6.4 埃爾米特矩陣

6.4.1 復內積

相關推薦

線性代數特徵值特徵向量

6.1 特徵值與特徵向量 特徵向量:若A為n階方陣,如果存在一個非零向量x使得Ax=λx,則稱標量λ為特徵值(eigenvalue),稱x為屬於λ的特徵向量(eigenvector)。 特徵向量與零度空間:方程Ax=λx可以寫為(A−λI)x=0,因此λ為特

線性代數精華——矩陣的特徵值特徵向量

今天和大家聊一個非常重要,在機器學習領域也廣泛使用的一個概念——矩陣的特徵值與特徵向量。 我們先來看它的定義,定義本身很簡單,假設我們有一個n階的矩陣A以及一個實數\(\lambda\),使得我們可以找到一個非零向量x,滿足: \[Ax=\lambda x\] 如果能夠找到的話,我們就稱\(\lambda\)

MIT 線性代數導論 第二十講特徵值特徵向量

敲黑板,敲黑板 。特徵向量與特徵值在很多地方都有應用,這一將開始講這一部分的內容,也是線性代數裡面很重要的一部分知識了。 這一講的主要內容: 特徵值、特徵向量的概念 特徵值與特徵向量的計算方法 特徵向量、特徵值的概念 對於矩陣 AAA 和向量 xxx , 有

線性代數)矩陣的特徵值特徵向量——特徵值特徵向量求解 矩陣對角化

本節主要知識點 1.特徵向量與特徵值的定義:A為n階方陣,x為非零向量,Ax=λx,則λ為A的特徵值,x為A的屬於特徵值的特徵向量。 2.特徵值與特徵向量的求解過程(重點) 寫出f(λ)=det(A-λI) 特徵值:計算f(λ)的全部根 特徵向量:對A的每一個特徵值

線性代數特徵值特徵向量

線性代數:特徵值對於解方程組有什麼作用?特徵值特徵向量可以解2次型對稱矩陣的特徵值和特徵向量Let M be a square matrix. Let λ be a constant and e a nonzero column vector with the same nu

線性代數公開課MIT Linear Algebra】 第二十四課 特徵值特徵向量的應用——馬爾科夫矩陣、傅立葉級數

本系列筆記為方便日後自己查閱而寫,更多的是個人見解,也算一種學習的複習與總結,望善始善終吧~ 馬爾科夫矩陣Markov Matrix 馬爾科夫矩陣Markov Matrix有兩個性質:所有元素大於等於0,所有矩陣的列相加等於1。 這裡性質導致一

線性代數】矩陣、向量、行列式、特徵值特徵向量(掌握這些概念一篇文章就夠了)

在數學領域中,線性代數是一門十分有魅力的學科,首先,它不難學;其次,它能廣泛應用於現實生活中;另外,在機器學習越來越被重視的現在,線性代數也能算得上是一個優秀程式設計師的基本素養吧? 一、線性代數的入門知識 很多人在大學學習線性代數時,國內

Machine Learning高等數學篇(十二)☞《特徵值特徵向量

上一節呢,我們學習了《齊次與非齊次方程組解的結構定理》,這次我們續接上一節的內容,來學習下《特徵值與特徵向量》 一、特徵值與特徵向量 二、特徵值的性質 三、可對角化矩陣(非常重要) 四、正定矩陣 五、奇異矩

線性代數線性變換

4.1 線性變換 線性變換:一個將向量空間V對映到向量空間W的對映L,如果對所有V中的向量v以及標量a,b,都有L(av1+bv2)=aL(v1)+bL(v2),則稱L為V的線性變換(Liner transformation),記作L:V−>W,如果V和

線性代數正交性

5.1 標量積 5.1.1 向量餘弦 標量積定義:有兩個Rn中的列向量x,y,則乘積xTy稱為x,y的標量積(scalar product),標量積為一個標量∑xiyi 向量的歐氏距離:若x∈Rn,則向量x的歐氏距離可通過標量積定義||x||=(xTx

深度學習中的數學技巧(7)特徵值特徵向量的幾何意義、計算及其性質

一、特徵值和特徵向量的幾何意義 特徵值和特徵向量確實有很明確的幾何意義,矩陣(既然討論特徵向量的問題,當然是方陣,這裡不討論廣義特徵向量的概念,就是一般的特徵向量)乘以一個向量的結果仍是同維數的一個向量。因此,矩陣乘法對應了一個變換,把一個向量變成同維數的另一個向量。

10 特徵值特徵向量

有趣的對話 數學是幹什麼的? 特徵值和特徵向量 特徵值和特徵向量到底是幹什麼的?為啥這樣寫就能算出來你想要的特徵值和特徵向量? 1.預備知識 2.直觀的描述他倆的意義 有的向量線性變換後離開了原來的張成空間

180122 特徵值特徵向量的幾何解釋python程式碼,附matplotlib繪製多邊形

紅色 基座標(豎著看) 1 0 0 1 綠色 變換矩陣(豎著看) 3 1 0 2 藍色 特徵向量(豎著看) 1−2√2 02√2 黑色 變換矩陣(左乘)特徵向量(豎著看) 3

特徵值特徵向量的意義

轉載地址:http://blog.csdn.net/sunshine_in_moon/article/details/45749691 本文轉自知乎大牛。  從定義出發,Ax=cx:A為矩陣,c為特徵值,x為特徵向量。  矩陣A乘以x表示,對向量x進行一次轉換(旋轉或拉

數學基礎系列(五)----矩陣、矩陣的秩、向量特徵值特徵向量

一、矩陣 1、係數矩陣 前面學習了矩陣很多基礎知識,那麼遇到具體的線性方程組該怎麼辦呢?該怎麼轉換為矩陣來求解呢?如下圖所示,A為係數矩陣,X是未知數矩陣,B是常數矩陣。    2、矩陣轉置 簡單來說就是矩陣的行元素和列元素互相調換一下。    下面列出一些矩陣轉置常用的公式    這些都沒有什麼好說的

形象理解線性代數(三)——列空間、零空間(核)、值域、特徵值特徵向量)、矩陣空間變換、矩陣的秩

這裡,我們還是要以 形象理解線性代數(一)——什麼是線性變換?為基礎。矩陣對向量的作用,可以理解為線性變換,同時也可以理解為空間的變換,即(m*n)的矩陣會把一個向量從m維空間變換到n維空間。 一、矩陣的列空間與矩陣的秩以及值域的關係 矩陣的列空間,其實就是矩陣的列所組成的空間。比如我們考慮

線性代數——特徵值特徵向量

線性方程 \(Ax=b\) 是穩定狀態的問題,特徵值在動態問題中有著巨大的重要性。\(du/dt=Au\) 的解隨著時間增長、衰減或者震盪,是不能通過消元來求解的。接下來,我們進入線性代數一個新的部分,基於 \(Ax=\lambda x\),我們要討論的所有矩陣都是方陣。 1. 特徵值和特徵向量 幾乎所有

機器學習線性代數基礎一 矩陣乘法、秩、特徵值特徵向量的幾何意義

  寫篇文章把自己對矩陣的理解記錄一下,有不對的地方歡迎指正。為簡單、直觀、視覺化起見,我們只以簡單的二維和三維空間為例。高維空間也是同樣的道理,只是不能視覺化,只能通過數學公式來證明。 1. 矩陣乘法   矩陣乘法來源於線性方程組的求解,為了方便起見,

信息摘要算法HKDF算法分析實現

.com 方式 ems class 偽隨機 不一定 urn 如果 生成 HKDF是一種特定的鍵衍生函數(KDF),即初始鍵控材料的功能,KDF從其中派生出一個或多個密碼強大的密鑰。在此我們想要描述的是基於HMAC的HKDF。 1、HKDF概述 密鑰派生函數(KDF)是密碼系

線性代數——正交向量子空間

1. 正交子空間 兩個向量垂直,意味著 \(v^Tw=0\)。 兩個子空間 \(\boldsymbol V\) 和 \(\boldsymbol W\) 是正交的,如果\(\boldsymbol V\) 中的每個向量 \(v\) 都垂直於 \(\boldsymbol W\) 中的每個向量 \(w\)。