1. 程式人生 > >線性代數精華——從正交向量到正交矩陣

線性代數精華——從正交向量到正交矩陣


向量內積


這個基本上是中學當中數學課本上的概念,兩個向量的內積非常簡單,我們直接看公式回顧一下:

\[X \cdot Y = \sum_{i=1}^n x_i*y_i\]

這裡X和Y都是n維的向量,兩個向量能夠計算內積的前提是兩個向量的維度一樣。從上面公式可以看出來,兩個向量的內積就等於兩個向量對應各個維度的分量的乘積的和。

為了和矩陣乘法以及普通的乘法做區分,我們通常把兩個向量的內積寫成:\([x, y]=x^Ty\)。

這裡有一個很重要的性質,對於一個向量而言,我們可以用歐幾里得公式計算它的長度。進一步,我們可以用向量的長度以及向量之間的夾角來表示向量的內積,如下:

\[[x, y]=|x|\cdot |y|\cos\theta\]

其中的\(\theta\)是x和y向量之間的夾角,對於三維及以下空間內的向量,這一點非常直觀。對於高維度的向量,我們很難想象它的物理意義。不過沒有關係,我們一樣可以認為向量之間存在一個廣義超空間內的一個夾角。在機器學習領域,我們通常用這個夾角來反應向量之間的相似度。兩個向量越相似,那麼它們之間的夾角應該越小,對應的cos餘弦值應該越大。所以我們可以用兩個向量之間的餘弦值來反應它們之間的相似度。餘弦值的計算就源於此。


正交向量


從上面的公式可以看出來,向量的內積等於兩個向量長度乘上向量之間的夾角。對於非零向量而言,它們的長度都應該是大於0的。所以兩個向量的內積的大小,就完全取決於向量之間的夾角\(\theta\)。

如果\(\theta\)小於90°,那麼\(\cos\theta>0\),那麼內積為正值。如果\(\theta\)大於90°,那麼餘弦值為負值。所以我們可以通過餘弦值正負判斷夾角是銳角還是鈍角。既然說到夾角,自然就離不開一種特殊情況——垂直。

如果是在二維平面當中,兩個向量夾角是90°,那麼顯然這兩個向量垂直。在高維空間當中也是一樣,不過我們一般不說垂直,而是會換一個詞——正交。兩個非零向量的內積為0,說明兩個向量正交。


正交向量組


搞清楚了正交向量之後,正交向量組也就明確了。正交向量組是指一組兩兩正交且非零的向量組。

如果n維的向量組:\(a_1, a_2, \cdots,a_r\)兩兩正交,那麼,它們一定線性無關。也就是說不存在一組不為零的係數\(\lambda\),使得:

\[\lambda_1a_1+\lambda_2a_2+\cdots + \lambda_ra_r=0\]

這點很容易證明,由於向量組內向量均不為0,我們只需要在等式兩邊隨便乘上一個向量即可,假設我們乘的是\(a_1\)。由於它與其他向量兩兩正交,所以其他項全為0。如果要等式成立,那麼必須要:

\[\lambda_1a_1^Ta_1=0\]

由於\(a_1\)不為0,那麼\(a_1^Ta_1\)必然不為0,要使得等式成立,只能是\(\lambda_1\)為0。


規範正交基


我們把正交向量組的概念和基的概念融合,如果向量組\(e_1, e_2, \cdots, e_r\)是向量空間V的一個基。如果它們之間彼此正交,那麼就稱它們是一組規範正交基。

對於向量a,我們可以很方便地求出它在規範正交基下各個維度的座標:

\[\lambda_i = e_i^Ta=[a, e_i]\]

也就是說向量a,在規範正交基下某一個維度的座標, 等於它和這個維度的正交基向量的內積。

如果說我們已經知道向量空間V中的一組基是\(a_1, a_2, \cdots, a_r\),我們怎麼求V的規範正交基呢?

這裡要用到一個演算法,叫做施密特演算法。通過這個演算法,我們可以通過向量空間的一組基來求出它的正交基。

這個演算法很簡單,我們可以直接寫出它的公式:

\[ \begin{aligned} b_1 &= a_1 \\ b_2 &= a_2 - \frac{[b_1, a_2]}{[b_1, b_1]}b_1\\ \cdots\\ b_r &= a_r - \frac{[b_1, a_r]}{[b_1, b_1]}b_1-\frac{[b_2, a_r]}{[b_2, b_2]}b_2 - \cdots - \frac{[b_{r-1}, a_r]}{[b_{r-1}, b_{r-1}]}b_{r-1} \end{aligned} \]

我們隨便取兩個b向量乘一下就知道,b向量組之中兩兩正交。所以,我們只要將b向量組單位化一下,就可以求出對應的規範正交基了。

即:

\[ e_1=\frac{1}{||b_1||}b_1, \quad e_2=\frac{1}{||b_2||}b_2 \quad \cdots \quad e_r=\frac{1}{||b_r||}b_r \]

這個演算法雖然不難,但蠻重要。在機器學習領域中一些降維演算法,很多都與施密特正交化方法有關。


正交矩陣


之前我們在介紹矩陣的時候,曾經說過,我們可以把一個矩陣看成是一個特定的向量組的結構。同樣,我們也可以把一個規範正交基向量組看成是一個矩陣,那麼這個矩陣就稱為是正交矩陣。

它擁有如下性質:

\[A^TA=I\]

其中I是單位矩陣,它的充要條件是矩陣A當中的每一列都是一個單位列向量,並且兩兩正交。

最後,我們看一下正交矩陣的性質。它的主要性質有三個:

  1. 如果A是正交矩陣,那麼\(A^{-1}=A^T\),也是正交矩陣,並且\(|A|=\pm 1\)。

  2. 如果A和B都是正交矩陣,並且它們階數一樣,那麼AB也是正交矩陣。

  3. 如果A是正交矩陣,向量y經過A變換之後行列式保持不變。

這三個性質都很簡單,我們通過正交矩陣的性質基本上都可以直接推導得到,或者是非常直觀,和我們的直覺吻合。其實怎麼推導不是重點,對於演算法工程師而言,更重要的是理解這些概念的意思,並且將它與演算法模型當中起到的功能聯絡起來,這才是最重要的事情。

今天關於正交向量和矩陣的內容就到這裡,如果覺得有所收穫,請順手點個關注或者轉發吧,你們的支援是我最大的動力。

相關推薦

線性代數精華——向量矩陣

向量內積 這個基本上是中學當中數學課本上的概念,兩個向量的內積非常簡單,我們直接看公式回顧一下: \[X \cdot Y = \sum_{i=1}^n x_i*y_i\] 這裡X和Y都是n維的向量,兩個向量能夠計算內積的前提是兩個向量的維度一樣。從上面公式可以看出來,兩個向量的內積就等於兩個向量對應各個維

線性代數精華——矩陣的特徵值與特徵向量

今天和大家聊一個非常重要,在機器學習領域也廣泛使用的一個概念——矩陣的特徵值與特徵向量。 我們先來看它的定義,定義本身很簡單,假設我們有一個n階的矩陣A以及一個實數\(\lambda\),使得我們可以找到一個非零向量x,滿足: \[Ax=\lambda x\] 如果能夠找到的話,我們就稱\(\lambda\)

線性代數之——特徵值和特徵向量

線性方程 \(Ax=b\) 是穩定狀態的問題,特徵值在動態問題中有著巨大的重要性。\(du/dt=Au\) 的解隨著時間增長、衰減或者震盪,是不能通過消元來求解的。接下來,我們進入線性代數一個新的部分,基於 \(Ax=\lambda x\),我們要討論的所有矩陣都是方陣。 1. 特徵值和特徵向量 幾乎所有

線性代數:特徵值和特徵向量

線性代數:特徵值對於解方程組有什麼作用?特徵值特徵向量可以解2次型對稱矩陣的特徵值和特徵向量Let M be a square matrix. Let λ be a constant and e a nonzero column vector with the same nu

線性代數學習點(三):向量相加的幾何表示

翻譯過程稍有刪減         向量的相加通常有兩種方式:三角形法則和平行四邊形法則。 三角形法則         在幾何上,要將兩個位移向量結合在一起,一個顯然的策略是第一個向量的終點即為第二個向量的起點,如下圖所示。                      

線性代數學習點(四):向量數乘的幾何表示

翻譯過程稍有刪減         用一個數去乘以一個向量,所得的結果仍然為一個向量,不過其長度為原向量的長度乘以這個數。稍微複雜一些的情況時,如果這個數是負的,情況又如何呢?        下面是書面的一些定義,對任意一個向量v和任意一個數c,有: 如果c為正數,則

MIT18.06線性代數課程筆記15:子空間投影矩陣

課程簡介 課程筆記 設空間S是位於Rn的子空間,維度為m。求Rn中的任意向量在子空間S中的投影p。 1. 子空間維度為1 對於m=1的情況,則有S={λa,∀λ}. 任意b∈Rn,其在與

線性代數之——向量與子空間

1. 正交子空間 兩個向量垂直,意味著 \(v^Tw=0\)。 兩個子空間 \(\boldsymbol V\) 和 \(\boldsymbol W\) 是正交的,如果\(\boldsymbol V\) 中的每個向量 \(v\) 都垂直於 \(\boldsymbol W\) 中的每個向量 \(w\)。

MIT 線性代數導論 第十四講:向量和子空間

第十三講是第一部分(主要是線性代數的基礎知識,四個子空間的關係)的複習課,所以沒有做記錄 本講的主要內容: 向量正交的定義以及證明方法 子空間正交的概念以及關於行空間、零空間的一些結論 向量正交 兩個向量正交的概念很直觀,就是:兩個向量的夾角為90° 線上性

MIT線性代數:17.矩陣和Cram-Schmidt

com img image -s idt 圖片 ima IT ID MIT線性代數:17.正交矩陣和Cram-Schmidt正交化

線性代數之——矩陣和 Gram-Schmidt

這部分我們有兩個目標。一是瞭解正交性是怎麼讓 \(\hat x\) 、\(p\) 、\(P\) 的計算變得簡單的,這種情況下,\(A^TA\) 將會是一個對角矩陣。二是學會怎麼從原始向量中構建出正交向量。 1. 標準正交基 向量 \(q_1, \cdots, q_n\) 是標準正交的,如果它們滿

線性代數基礎(矩陣、範數、、特徵值分解、奇異值分解、跡運算)

目錄 基礎概念 矩陣轉置 對角矩陣 線性相關 範數 正交 特徵值分解 奇異值分解 跡運算 行列式 如果這篇文章對你有一點小小的幫助,請給個關注喔~我會非常開心的~ 基礎概念 標量:一個標量就是一個單獨的數字 向量:一個向量就是一列數字 矩

【機器學習】【線性代數基、標準基、矩陣變換等數學知識點

1.正交向量組直接給定義:歐式空間V的一組非零向量,如果他們倆倆向量正交,則稱是一個正交向量組。(1)正交向量組 是 線性無關的(2)n維歐式空間中倆倆正交的非零向量不會超過n個,即n維歐式空間中一個正交向量組最多n個向量2.正交基在n維歐式空間中,由n個非零向量組成的正交向

線性代數】標準矩陣與Gram-Schmidt

1、標準正交矩陣     假設矩陣Q有列向量q1,q2,...,qn表示,且其列向量滿足下式:      則      若Q為方陣,由上面的式子則有       我們舉例說明上述概念:       2、標準正交矩陣的好處     上面我們介紹了標準正交矩陣,那麼標準正交矩

線性代數變換與座標系的關係

1 正交變換 幾何意義: 正交變換是保持圖形形狀和大小不變的幾何變換,包含旋轉,平移,軸反射及上述變換的複合. 正交可以保證向量的長度和兩個向量之間的角度不變. 定理: 線段變為等長線段 單位向量變為單位向量 笛卡爾座標系變為笛卡爾座標系 矩形變為全等的矩形

線性代數導論17——矩陣和Gram-Schmidt

這是關於正交性最後一講,已經知道正交空間,比如行空間和零空間,今天主要看正交基和正交矩陣 一組基裡的向量,任意q都和其他q正交,兩兩垂直,內積為零,且qi不和自己正交,qi的長度為1,這樣的向量組叫標準正交基 把如上的這些標準正交的向量作為矩陣Q的列,那麼QTQ=I

線性代數的那些事(三)特徵值與變換

嗯哼哼說下變換為什麼要進行變換因為變換後,在新空間下運算變得簡單,或者說 在變化下之前複雜難以觀察的規律變得容易觀察了其實變換的實質就是旋轉與拉伸(圖片來自:https://www.zhihu.com/question/20501504/answer/174887899)比如

線性代數之五:

5.1 標量積 5.1.1 向量餘弦 標量積定義:有兩個Rn中的列向量x,y,則乘積xTy稱為x,y的標量積(scalar product),標量積為一個標量∑xiyi 向量的歐氏距離:若x∈Rn,則向量x的歐氏距離可通過標量積定義||x||=(xTx

線性代數投影

       我們在初中就應該學過投影,那麼什麼是投影呢?形象點說,就是將你需要投影的東西上的每一點向你要投影的平面作垂線,垂線與平面的交點的集合就是你的投影。注意這裡我們的投影是向量的投影,幾何的投

線性代數之——對稱矩陣定性

當 A A A 是對稱的時候,