人工智慧之線性代數
線性代數知識(python之Numpy庫)
向量
向量:其實可以把向量看成是N維空間的一個座標,向量的建立(使用numpy中的array)和基本運算比較簡單。
矩陣
矩陣的建立:numpy.array() ,numpy.mat(),dot()計算 兩個矩陣的乘積
矩陣運算
1.矩陣的逆:numpy.linalg.inv(a) 一個矩陣可逆則原始矩陣乘逆矩陣為單位矩陣奇異矩陣不存在逆矩陣
2.轉置矩陣:a.T
3.特徵分解:np.linalg.eig(a)生成兩個值:分別是特徵值(陣列),特徵向量
4.SVD分解:numpy.linalg.svd(a)生成三個值:3*3矩陣 3個元素 3*3矩陣
5.矩陣的秩:numpy.linalg.matrix_rank() 非奇異矩陣存在滿秩 奇異矩陣達不到滿秩
矩陣進階
1.行列式:numpy.linalg.det(a)求解行列式 行列式為0的矩陣不可逆2.求解線性方程組:numpy.linalg.solve(a,b)
3.範數:numpy.linalg.norm(a,ord=1)
相關推薦
人工智慧之線性代數
線性代數知識(python之Numpy庫) 向量 向量:其實可以把向量看成是N維空間的一個座標,向量的建立(使用numpy中的array)和基本運算比較簡單。 矩陣 矩陣的建立:numpy.array() ,numpy.mat(),dot()計算 兩個矩陣的乘積 矩陣運算 1.矩
人工智慧的數學基礎之線性代數的一些概念及總結
有一組向量可以通過線性組合得到其他向量,他們所有線性組合的集合就稱為向量的線性生成空間。也就是說在裡面的所有向量都可以由這組向量線性組合得到。維度就是基的數量。 基不一定是兩兩垂直並不一定是正交的,而是隻要滿足這一組基之間是線性無關的就夠了。 線性無關並不一定導致垂直,但垂直一定是線性無關的
Python之線性代數(行列式)
d = np.array([ [4,1,2,4], [1,2,0,2], [10,5,2,
Python之線性代數(矩陣運算,逆矩陣,伴隨矩陣)
np.eye(10)*10 # 10階方陣,當對角線值為1時為對角矩陣 np.eye(5) array([[1., 0., 0., 0., 0.], [0., 1., 0., 0., 0.], [0., 0., 1
機器學習之線性代數基礎一 矩陣乘法、秩、特徵值、特徵向量的幾何意義
寫篇文章把自己對矩陣的理解記錄一下,有不對的地方歡迎指正。為簡單、直觀、視覺化起見,我們只以簡單的二維和三維空間為例。高維空間也是同樣的道理,只是不能視覺化,只能通過數學公式來證明。 1. 矩陣乘法 矩陣乘法來源於線性方程組的求解,為了方便起見,
我的人工智慧之旅——線性代數基礎
1.矩陣 矩陣,matrix,為m行n列的資料陣列。例如下例,為4x3階矩陣。 2.方陣 mxn階矩陣的m=n時,稱為方陣,n階方陣。 3.單位矩陣 單位矩陣,是指對角線資料為1,其它資料為0的n階方陣。 4.逆矩陣 逆矩陣,matrix inver
線性代數之二------任意階行列式的計算
code 數學 都是 sum bsp 表達 logs 就會 觀察 上一篇,我們講到了二階行列式的定義,接下來我們要將其拓展到任意階的行列式。 在此之前,我們要講一個叫做逆序數的東西,它與行列式的定義可謂是息息相關。 那麽,什麽是逆序數呢? 眾所周知,任意一個大小為n的集合都
線性代數之行列式的C#研究實現
學習 ops {0} builder att interop turn gen new 最近學習機器學習 才發現以前數學沒有學好 開始從線性代數開始學起 讀完行列式一章寫了些C#的代碼學習一下。 直接上C#代碼: using System; using Syste
我的人工智慧之旅——線性迴歸
本文將涉及以下知識點 (1)線性關係 (2)線性迴歸 (3)假設函式 (4)代價函式 (5)學習速率 (6)梯度下降 (7)特徵向量 相關的線性代數或微積分知識,可參照另兩篇博文 我的人工智慧之旅----線性代數基礎知識 我的人工智慧之旅----微積分基礎
線性代數之——行影象和列影象
1. 線性方程組的幾何解釋 線性代數的中心問題就是解決一個方程組,這些方程都是線性的,也就是未知數都是乘以一個數字的。 \[\begin{alignedat}{2} &x \space- \space&2&y \space=\space 1 \\ 3&x\space+\sp
線性代數之——消元法
1. 消元的思想 針對下面的方程,我們無法直接得到方程的解。 \[\begin{alignedat}{2} &x \space- \space&2&y \space=\space 1 \\ 3&x\space+\space&2&y \space=\space
線性代數之——矩陣乘法和逆矩陣
1. 矩陣乘法 如果矩陣 \(B\) 的列為 \(b_1, b_2, b_3\),那麼 \(EB\) 的列就是 \(Eb_1, Eb_2, Eb_3\)。 \[\boldsymbol{EB = E[b_1 \quad b_2 \quad b_3] = [Eb_1 \quad Eb_2 \quad Eb_3
Python學習路線人工智慧線性代數知識點彙總
人工智慧和資料分析相關的線性代數知識。比如什麼是向量,什麼是矩陣,矩陣的加減乘除。矩陣對角化,三角化,秩,QR法,最小二法。等等 向量: 高中數學中都學過複數,負數表示式是: a+bi 複數實際上和二維的向量是異性同構的。所謂異性同構,是一個很嚴格的數學定義,這裡不是重點,不做介紹。我
線性代數之——向量空間
1. 向量空間和子空間 向量空間 \(\boldsymbol R^n\) 由所有的 \(n\) 維向量 \(v\) 組成,向量中的每個元素都是實數。 向量空間 \(\boldsymbol R^2\) 可以用 \(xy\) 平面來表示,其中的每個向量有兩個元素,它們定義了平面上一個點的座標。 在一個
線性代數之——秩和解的結構
1. 矩陣的秩 \(m\) 和 \(n\) 給出了矩陣的大小,但卻不是線性方程組的真正大小。因為,一個 \(0=0\) 的方程實際上是不算的。如果 \(A\) 中有完全相等的兩行,或者第三行是第一行和第二行的線性組合,那麼消元過程中就會出現全零的行。線性方程組的真正大小由秩來確定。 矩陣的秩是主元的
線性代數之——向量簡介
1. 二維向量 在二維平面中,一個二維向量可以用一個箭頭來表示,這個箭頭起始於原點,終點座標 ( x
線性代數之——A 的 LU 分解
1. A = LU 之前在消元的過程中,我們看到可以將矩陣 A A A 變成一個上三角矩陣
線性代數之——正交向量與子空間
1. 正交子空間 兩個向量垂直,意味著 \(v^Tw=0\)。 兩個子空間 \(\boldsymbol V\) 和 \(\boldsymbol W\) 是正交的,如果\(\boldsymbol V\) 中的每個向量 \(v\) 都垂直於 \(\boldsymbol W\) 中的每個向量 \(w\)。
線性代數之——子空間投影
1. 投影 向量 $ b = (2, 3, 4)$ 在 \(z\) 軸上和在 \(xy\) 平面上的投影是什麼,哪個矩陣能產生到一條線上和到一個平面的投影? 當 \(b\) 被投影到 \(z\) 軸上時,它的投影 \(p\) 就是 \(b\) 沿著那條線的部分。當 \(b\) 被投影到一個平面時,它的投影
線性代數之——四個基本子空間
1. 四個基本子空間 行空間 C ( A