1. 程式人生 > >人工智慧、大資料與複雜系統

人工智慧、大資料與複雜系統

├─01-複雜系統
│ 1.1物理預測的勝利與失效
│ 1.2預測失效原因
│ 1.3複雜系統引論
│ 1.4生活例項與本章答疑

├─02-大資料與機器學習
│ 2.1大資料預測因為
│ 2.2大資料與機器學習

├─03-人工智慧的三個階段
│ 3.10課程大綱(二)
│ 3.1規則階段
│ 3.2機器學習階段發展至連線主義階段
│ 3.3課間答疑
│ 3.4連線主義階段發展至學習階段
│ 3.5三個階段總結分析
│ 3.6人工智慧的應用(一)
│ 3.7人工智慧的應用(二)
│ 3.8課間答疑
│ 3.9課程大綱(一)

├─04-高等數學—元素和極限
│ 4.10級數的收斂
│ 4.11極限的定義
│ 4.12極限的四則運算
│ 4.13極限的複合
│ 4.14連續性
│ 4.1實數的定義(一)
│ 4.2實數的定義(二)
│ 4.3實數的定義(三)
│ 4.4實數的元素個數(一)
│ 4.5實數的元素個數(二)
│ 4.6自然數個數少於實數個數(一)
│ 4.7自然數個數少於實數個數(二)
│ 4.8無窮大之比較(一)
│ 4.9無窮大之比較(二)

├─05-複雜網路經濟學應用
│ 5.1用網路的思維看經濟結構
│ 5.2複雜網路認識前後
│ 5.3從網路結構看不同地區(一)
│ 5.4從網路結構看不同地區(二)

├─06-機器學習與監督演算法
│ 6.1什麼是機器學習
│ 6.2機器學習的型別
│ 6.3簡單迴歸例項(一)
│ 6.4簡單迴歸例項(二)
│ 6.5簡單迴歸例項(三)

├─07-阿爾法狗與強化學習演算法
│ 7.1人工智慧的發展
│ 7.2強化學習演算法(一)
│ 7.3強化學習演算法(二)
│ 7.4強化學習演算法(三)
│ 7.5Alphago給我們的啟示
│ 7.6無監督學習

├─08-高等數學—兩個重要的極限定理
│ 8.1元素與極限的知識點回顧
│ 8.2第一個重要極限定理的證明(一)
│ 8.3第一個重要極限定理的證明(二)
│ 8.4夾逼定理
│ 8.5第二個重要極限定理的證明

├─09-高等數學—導數
│ 9.10泰勒展開的證明
│ 9.1導數的定義
│ 9.2初等函式的導數
│ 9.3反函式的導數(一)
│ 9.4反函式的導數(二)
│ 9.5複合函式的導數
│ 9.6泰勒展開
│ 9.7羅爾定理
│ 9.8微分中值定理和柯西中值定理
│ 9.9洛比塔法則

├─10-貝葉斯理論
│ 10.10貝葉斯於機器學習(一)
│ 10.11貝葉斯於機器學習(二)
│ 10.12貝葉斯決策(一)
│ 10.13貝葉斯決策(二)
│ 10.14貝葉斯決策(三)
│ 10.1梯度優化(一)
│ 10.2梯度優化(二)
│ 10.3概率基礎
│ 10.4概率與事件
│ 10.5貝葉斯推理(一)
│ 10.6貝葉斯推理(二)
│ 10.7貝葉斯推理(三)
│ 10.8辛普森案件
│ 10.9貝葉斯推理深入

├─11-高等數學—泰勒展開
│ 11.1泰勒展開
│ 11.2展開半徑
│ 11.3尤拉公式
│ 11.4泰勒展開求極限(一)
│ 11.5泰勒展開求極限(二)

├─12-高等數學—偏導數
│ 12.1偏導數的對稱性
│ 12.2鏈式法則
│ 12.3梯度算符、拉氏算符

├─13-高等數學—積分
│ 13.1黎曼積
│ 13.2微積分基本定理
│ 13.3分部積分(一)
│ 13.4分部積分(二)

├─14-高等數學—正態分佈
│ 14.1標準正態分佈
│ 14.2中心極限定理
│ 14.3誤差函式
│ 14.4二維正態分佈
│ 14.5多維正態分佈

├─15-樸素貝葉斯和最大似然估計
│ 15.10樸素貝葉斯(三)
│ 15.11最大似然估計(一)
│ 15.12最大似然估計(二)
│ 15.1蒙特卡洛分析(一)
│ 15.2蒙特卡洛分析(二)
│ 15.3貝葉斯先驗
│ 15.4先驗到後驗的過程
│ 15.5樸素貝葉斯(一)
│ 15.6樸素貝葉斯(二)
│ 15.7演算法設計
│ 15.8TF-IDF(一)
│ 15.9TF-IDF(二)

├─16-線
│ 16.10常規線空間
│ 16.11線關
│ 16.12秩
│ 16.1線代數概述
│ 16.2線代數應用方法論
│ 16.3線律
│ 16.4線空間
│ 16.5線空間八條法則(一)
│ 16.6線空間八條法則(二)
│ 16.7線空間八條法則(三)
│ 16.8連續傅
│ 16.9傅立

├─17-資料科學和統計學(上)
│ 17.10隨機變數(二)
│ 17.11換門的概率模擬計算(一)
│ 17.12換門的概率模擬計算(二)
│ 17.13換門的概率模擬計算(三)
│ 17.1課程Overview
│ 17.2回顧統計學(一)
│ 17.3回顧統計學(二)
│ 17.4回顧統計學(三)
│ 17.5回顧資料科學(一)
│ 17.6回顧資料科學(二)和教材介紹
│ 17.7R和RStudio等介紹(一)
│ 17.8R和RStudio等介紹(二)
│ 17.9隨機變數(一)

├─18-線代數—矩陣、等價類和行列式
│ 18.10等價類
│ 18.11行列式(一)
│ 18.12行列式(二)
│ 18.13行列式(三)
│ 18.1線代數知識點回顧
│ 18.2矩陣表示線變化
│ 18.3可矩陣表示座標變化
│ 18.4相似矩陣
│ 18.5相似矩陣表示相同線變化
│ 18.6線代數解微分方程
│ 18.7矩陣的運算—轉秩(一)
│ 18.8矩陣的運算—轉秩(二)
│ 18.9等價關係

├─19-Python基礎課程(上)
│ 19.10變數型別—字串型別(三)
│ 19.11變數型別—列表型別(一)
│ 19.12變數型別—列表型別(二)
│ 19.13變數型別—列表型別(三)
│ 19.14變數型別—語言組型別、字典型別(一)
│ 19.15變數型別—字典型別(二)
│ 19.1Python介紹(一)
│ 19.2Python介紹(二)
│ 19.3變數—命名規範
│ 19.4變數—程式碼規範
│ 19.5變數型別—數值型別
│ 19.6變數型別—bool型別
│ 19.7變數型別—字串型別(一)
│ 19.8課間答疑
│ 19.9變數型別—字串型別(二)

├─20-線代數—特徵值與特徵向量
│ 20.10線代數核心定理
│ 20.11對偶空間(一)
│ 20.12對偶空間(二)
│ 20.13歐氏空間與閔氏空間
│ 20.14厄米矩陣
│ 20.1線代數知識點回顧
│ 20.2例題講解(一)
│ 20.3例題講解(二)
│ 20.4例題講解(三)
│ 20.5特徵值與特徵向量的物理意義
│ 20.6特徵值與特徵向量的性質(一)
│ 20.7特徵值與特徵向量的性質(二)
│ 20.8本徵值的計算(一)
│ 20.9本徵值的計算(二)

├─21-監督學習框架
│ 21.10KNN(K最近鄰)演算法(二)
│ 21.11KNN(K最近鄰)演算法(三)
│ 21.12線性分類器
│ 21.13高斯判別模型(一)
│ 21.14高斯判別模型(二)
│ 21.1經驗誤差和泛化誤差
│ 21.2最大後驗估計
│ 21.3正則化
│ 21.4lasso迴歸
│ 21.5超引數(一)
│ 21.6超引數(二)
│ 21.7監督學習框架(一)
│ 21.8監督學習框架(二)
│ 21.9KNN(K最近鄰)演算法(一)

├─22-Python基礎課程(下)
│ 22.10函式(三)
│ 22.11函式(四)
│ 22.12類(一)
│ 22.13類(二)
│ 22.14類(三)
│ 22.1條件判斷(一)
│ 22.2條件判斷(二)
│ 22.3迴圈(一)
│ 22.4迴圈(二)
│ 22.5課間答疑
│ 22.6迴圈(三)
│ 22.7迴圈(四)
│ 22.8函式(一)
│ 22.9函式(二)

├─23-PCA、降維方法引入
│ 23.1無監督學習框架
│ 23.2降維存在的原因
│ 23.3PCA數學分析方法(一)
│ 23.4PCA數學分析方法(二)
│ 23.5PCA數學分析方法(三)
│ 23.6PCA數學分析方法(四)
│ 23.7PCA之外的降維方法—LDA
│ 23.8PCA背後的假設(一)
│ 23.9PCA背後的假設(二)

├─24-資料科學和統計學(下)
│ 24.10引數估計(一)
│ 24.11引數估計(二)
│ 24.12假設檢驗(一)
│ 24.13假設檢驗(二)
│ 24.1課程Overview
│ 24.2理解統計思想(一)
│ 24.3理解統計思想(二)
│ 24.4理解統計思想(三)
│ 24.5概率空間
│ 24.6隨機變數(一)
│ 24.7隨機變數(二)
│ 24.8隨機變數(三)
│ 24.9隨機變數(四)

├─25-Python操作資料庫、 Python爬蟲
│ 25.10Python操作資料庫(二)
│ 25.11Python操作資料庫(三)
│ 25.12Python操作資料庫(四)
│ 25.13Python爬蟲(一)
│ 25.14Python爬蟲(二)
│ 25.15Python爬蟲(三)
│ 25.16Python爬蟲(四)
│ 25.17Python爬蟲(五)
│ 25.1課程介紹
│ 25.2認識關係型資料庫(一)
│ 25.3認識關係型資料庫(二)
│ 25.4MySQL資料庫與Excel的不同
│ 25.5命令列操作資料庫(一)
│ 25.6命令列操作資料庫(二)
│ 25.7命令列操作資料庫(三)
│ 25.8命令列操作資料庫(四)
│ 25.9Python操作資料庫(一)

├─26-線分類器
│ 26.10Perceptron(三)
│ 26.11Perceptron(四)
│ 26.12熵與資訊(一)
│ 26.13熵與資訊(二)
│ 26.1Lasso:alpha引數與準確率(一)
│ 26.2Lasso:alpha引數與準確率(二)
│ 26.3Lasso:alpha引數與準確率(三)
│ 26.4線分類器
│ 26.5LDA(一)
│ 26.6LDA(二)
│ 26.7LDA(三)
│ 26.8Perceptron(一)
│ 26.9Perceptron(二)

├─27-Python進階(上)
│ 27.10Pandas基本操作(四)
│ 27.11Pandas繪圖(一)
│ 27.12Pandas繪圖(二)
│ 27.13Pandas繪圖(三)
│ 27.14Pandas繪圖(四)
│ 27.1NumPy基本操作(一)
│ 27.2NumPy基本操作(二)
│ 27.3NumPy基本操作(三)
│ 27.4NumPy基本操作(四)
│ 27.5NumPy基本操作(五)
│ 27.6NumPy基本操作(六)
│ 27.7Pandas基本操作(一)
│ 27.8Pandas基本操作(二)
│ 27.9Pandas基本操作(三)

├─28-Scikit-Learn
│ 28.1課程介紹
│ 28.2Scikit-Learn介紹
│ 28.3資料處理(一)
│ 28.4資料處理(二)
│ 28.5模型例項、模型選擇(一)
│ 28.6模型例項、模型選擇(二)
│ 28.7模型例項、模型選擇(三)
│ 28.8模型例項、模型選擇(四)
│ 28.9模型例項、模型選擇(五)

├─29-熵、邏輯斯蒂迴歸、SVM引入
│ 29.10邏輯斯蒂迴歸(三)
│ 29.11邏輯斯蒂迴歸(四)
│ 29.12邏輯斯蒂迴歸(五)
│ 29.13SVM引入
│ 29.1熵(一)
│ 29.2熵(二)
│ 29.3熵(三)
│ 29.4熵(四)
│ 29.5熵(五)
│ 29.6熵(六)
│ 29.7熵(七)
│ 29.8邏輯斯蒂迴歸(一)
│ 29.9邏輯斯蒂迴歸(二)

├─30-Python進階(下)
│ 30.1泰坦尼克資料處理與分析(一)
│ 30.2泰坦尼克資料處理與分析(二)
│ 30.3泰坦尼克資料處理與分析(三)
│ 30.4泰坦尼克資料處理與分析(四)
│ 30.5泰坦尼克資料處理與分析(五)
│ 30.6泰坦尼克資料處理與分析(六)
│ 30.7泰坦尼克資料處理與分析(七)
│ 30.8泰坦尼克資料處理與分析(八)
│ 30.9泰坦尼克資料處理與分析(九)

├─31-決策樹
│ 31.1決策樹(一)
│ 31.2決策樹(二)
│ 31.3決策樹(三)
│ 31.4決策樹(四)

├─32-資料呈現基礎
│ 32.1課程安排
│ 32.2什麼是資料視覺化
│ 32.3設計原則
│ 32.4資料視覺化流程
│ 32.5視覺編碼
│ 32.6圖形選擇(一)
│ 32.7圖形選擇(二)
│ 32.8圖形選擇(三)

├─33-雲端計算初步
│ 33.1Hadoop介紹
│ 33.2Hdfs應用(一)
│ 33.3Hdfs應用(二)
│ 33.4MapReduce(一)
│ 33.5MapReduce(二)
│ 33.6Hive應用(一)
│ 33.7Hive應用(二)
│ 33.8Hive應用(三)
│ 33.9Hive應用(四)

├─34-D-Park實戰
│ 34.10Spark應用(四)
│ 34.11Spark應用(五)
│ 34.12Spark應用(六)
│ 34.13Spark應用(七)
│ 34.1Pig應用(一)
│ 34.2Pig應用(二)
│ 34.3Pig應用(三)
│ 34.4Pig應用(四)
│ 34.5Pig應用(五)
│ 34.6Pig應用(六)
│ 34.7Spark應用(一)
│ 34.8Spark應用(二)
│ 34.9Spark應用(三)

├─35-第四正規化分享
│ 35.1推薦技術的介紹
│ 35.2人是如何推薦商品的
│ 35.3推薦系統的形式化以及如何評價推薦結果
│ 35.4求解—從資料到模型
│ 35.5資料拆分與特徵工程
│ 35.6推薦系統機器學習模型
│ 35.7評估模型
│ 35.8建模過程的演示與課間答疑

├─36-決策樹到隨機森林
│ 36.10Bagging與決策樹(一)
│ 36.11Bagging與決策樹(二)
│ 36.12Boosting方法(一)
│ 36.13Boosting方法(二)
│ 36.14Boosting方法(三)
│ 36.15Boosting方法(四)
│ 36.1決策樹
│ 36.2隨機森林
│ 36.3在Scikit-Learn裡面如何用隨機森林做預測(一)
│ 36.4在Scikit-Learn裡面如何用隨機森林做預測(二)
│ 36.5模型引數的介紹
│ 36.6整合方法(一)
│ 36.7整合方法(二)
│ 36.8Blending
│ 36.9gt多樣化

├─37-資料呈現進階
│ 37.10D3(三)
│ 37.11div.html
│ 37.12svg.html
│ 37.13D3支援的資料型別
│ 37.14Make a map(一)
│ 37.15Make a map(二)
│ 37.1靜態資訊圖(一)
│ 37.2靜態資訊圖(二)
│ 37.3靜態資訊圖(三)
│ 37.4靜態資訊圖(四)
│ 37.5靜態資訊圖(五)
│ 37.6HTML、CSS和JavaScript基礎介紹
│ 37.7DOM和開發者工具
│ 37.8D3(一)
│ 37.9D3(二)

├─38-強化學習(上)
│ 38.10Policy Learning(二)
│ 38.11Policy Learning(三)
│ 38.12Policy Learning(四)
│ 38.13Policy Learning(五)
│ 38.14Policy Learning(六)
│ 38.1你所瞭解的強化學習是什麼
│ 38.2經典條件反射(一)
│ 38.3經典條件反射(二)
│ 38.4操作性條件反射
│ 38.5Evaluation Problem(一)
│ 38.6Evaluation Problem(二)
│ 38.7Evaluation Problem(三)
│ 38.8Evaluation Problem(四)
│ 38.9Policy Learning(一)

├─39-強化學習(下)
│ 39.10大腦中的強化學習演算法(三)
│ 39.11大腦中的強化學習演算法(四)
│ 39.12大腦中的強化學習演算法(五)
│ 39.13RL in alphaGo(一)
│ 39.14RL in alphaGo(二)
│ 39.15RL in alphaGo(三)
│ 39.16RL in alphaGo(四)
│ 39.1Policy Learning總結
│ 39.2基於模型的RL(一)
│ 39.3基於模型的RL(二)
│ 39.4基於模型的RL(三)
│ 39.5基於模型的RL(四)
│ 39.6基於模型的RL(五)
│ 39.7基於模型的RL(六)
│ 39.8大腦中的強化學習演算法(一)
│ 39.9大腦中的強化學習演算法(二)

├─40-SVM和網路引入
│ 40.10SVM(九)
│ 40.11SVM(十)
│ 40.12SVM(十一)
│ 40.13SVM(十二)和網路引入
│ 40.1VC維
│ 40.2SVM(一)
│ 40.3SVM(二)
│ 40.4SVM(三)
│ 40.5SVM(四)
│ 40.6SVM(五)
│ 40.7SVM(六)
│ 40.8SVM(七)
│ 40.9SVM(八)

├─41-整合模型總結和GDBT理解及其衍生應用
│ 41.10GDBT理解及其衍生應用(五)
│ 41.11GDBT理解及其衍生應用(六)
│ 41.12GDBT理解及其衍生應用(七)
│ 41.13GDBT理解及其衍生應用(八)
│ 41.14GDBT理解及其衍生應用(九)
│ 41.15GDBT理解及其衍生應用(十)
│ 41.1整合模型總結(一)
│ 41.2整合模型總結(二)
│ 41.3整合模型總結(三)
│ 41.4整合模型總結(四)
│ 41.5整合模型總結(五)
│ 41.6GDBT理解及其衍生應用(一)
│ 41.7GDBT理解及其衍生應用(二)
│ 41.8GDBT理解及其衍生應用(三)
│ 41.9GDBT理解及其衍生應用(四)

├─42-網路
│ 42.1SVM比較其他分類起程式碼(一)
│ 42.2SVM比較其他分類起程式碼(二)
│ 42.3網路(一)
│ 42.4網路(二)
│ 42.5網路(三)
│ 42.6網路(四)

├─43-監督學習-迴歸
│ 43.10經驗分享(一)
│ 43.11經驗分享(二)
│ 43.12經驗分享(三)
│ 43.1機器學習的概念和監督學習
│ 43.2機器學習工作流程(一)
│ 43.3機器學習工作流程(二)
│ 43.4機器學習工作流程(三)
│ 43.5機器學習工作流程(四)
│ 43.6案例分析(一)
│ 43.7案例分析(二)
│ 43.8案例分析(三)
│ 43.9案例分析(四)

├─44-監督學習-分類
│ 44.10模型訓練與選擇(二)
│ 44.11Airbnb資料探索過程(一)
│ 44.12Airbnb資料探索過程(二)
│ 44.13地震資料視覺化過程(一)
│ 44.14地震資料視覺化過程(二)
│ 44.1常用的分類演算法
│ 44.2模型評估標準和案例分析
│ 44.3資料探索(一)
│ 44.4資料探索(二)
│ 44.5資料探索(三)
│ 44.6資料探索(四)
│ 44.7資料探索(五)
│ 44.8資料探索(六)
│ 44.9模型訓練與選擇(一)

├─45-網路基礎與卷積網路
│ 45.10網路(十)
│ 45.11影象處理基礎
│ 45.12卷積(一)
│ 45.13卷積(二)
│ 45.1網路(一)
│ 45.2網路(二)
│ 45.3網路(三)
│ 45.4網路(四)
│ 45.6網路(六)
│ 45.7網路(七)
│ 45.8網路(八)
│ 45.9網路(九)
│ 45.網路(五)

├─46-時間序列預測
│ 46.10長短期記憶網路(LSTM)案例分析
│ 46.11Facebook開源的新預測工具—Prophet(一)
│ 46.12Facebook開源的新預測工具—Prophet(二)
│ 46.13課程答疑
│ 46.1時間序列預測概述(一)
│ 46.2時間序列預測概述(二)
│ 46.3差分自迴歸移動平均模型(ARIMA)
│ 46.4差分自迴歸移動平均模型(ARIMA)案例分析(一)
│ 46.5差分自迴歸移動平均模型(ARIMA)案例分析(二)
│ 46.6差分自迴歸移動平均模型(ARIMA)案例分析(三)
│ 46.7差分自迴歸移動平均模型(ARIMA)案例分析(四)
│ 46.8長短期記憶網路(LSTM)(一)
│ 46.9長短期記憶網路(LSTM)(二)

├─47-人工智慧金融應用
│ 47.1人工智慧金融應用(一)
│ 47.2人工智慧金融應用(二)
│ 47.3人工智慧金融應用(三)
│ 47.4人工智慧金融應用(四)
│ 47.5機器學習方法(一)
│ 47.6機器學習方法(二)
│ 47.7機器學習方法(三)
│ 47.8機器學習方法(四)

├─48-計算機視覺深度學習入門目的篇
│ 48.1計算機視覺深度學習入門概述
│ 48.2計算機視覺領域正在關心的問題(一)
│ 48.3計算機視覺領域正在關心的問題(二)
│ 48.4實際問題轉化為具體問題並用深度學習解決(一)
│ 48.5實際問題轉化為具體問題並用深度學習解決(二)
│ 48.6實際問題轉化為具體問題並用深度學習解決(三)
│ 48.7實際問題轉化為具體問題並用深度學習解決(四)

├─49-計算機視覺深度學習入門結構篇
│ 49.10結構之間的優劣評判以及實驗結果(五)
│ 49.11結構之間的優劣評判以及實驗結果(六)
│ 49.12結構之間的以及實驗結果(七)
│ 49.13結構之間的優劣評判以及實驗結果(八)
│ 49.1複習計算機視覺最主要的負責特徵提取的結構CNN
│ 49.2特徵如何組織(一)
│ 49.3特徵如何組織(二)
│ 49.4特徵如何組織(三)
│ 49.5特徵如何組織(四)
│ 49.6結構之間的優劣評判以及實驗結果(一)
│ 49.7結構之間的優劣評判以及實驗結果(二)
│ 49.8結構之間的優劣評判以及實驗結果(三)
│ 49.9結構之間的優劣評判以及實驗結果(四)

├─50-計算機視覺學習入門優化篇
│ 50.1計算機視覺學習入門:優化篇概述
│ 50.2CNN模型的一階優化邏輯
│ 50.3穩定性:Annealing和Momentum
│ 50.4擬合:從Dropout到Weight Decay
│ 50.5優化器和多機並行
│ 50.6手動超參優化邏輯以及超參優化往何處去

├─51-計算機視覺深度學習入門資料篇
│ 51.1計算機視覺領域的常用競賽資料集
│ 51.2對資料常用的預處理工作和後處理工作如何提高競賽成績(一)
│ 51.3對資料常用的預處理工作和後處理工作如何提高競賽成績(二)
│ 51.4如何使用端到端深度學習的方法

├─52-計算機視覺深度學習入門工具篇
│ 52.1計算機視覺深度學習入門工具篇(一)
│ 52.2計算機視覺深度學習入門工具篇(二)
│ 52.3計算機視覺深度學習入門工具篇(三)

├─53-個化推薦演算法
│ 53.10工程望
│ 53.1個化推薦的發展
│ 53.2推薦演算法的演進(一)
│ 53.3推薦演算法的演進(二)
│ 53.4推薦演算法的演進(三)
│ 53.5推薦演算法的演進(四)
│ 53.6建模step by step(一)
│ 53.7建模step by step(二)
│ 53.8建模step by step(三)
│ 53.9演算法評估和迭代

├─54-Pig和Spark鞏固
│ 54.10Spark鞏固(五)
│ 54.1Pig鞏固(一)
│ 54.2Pig鞏固(二)
│ 54.3Pig鞏固(三)
│ 54.4Pig鞏固(四)
│ 54.5Pig鞏固(五)
│ 54.6Spark鞏固(一)
│ 54.7Spark鞏固(二)
│ 54.8Spark鞏固(三)
│ 54.9Spark鞏固(四)

├─55-人工智慧與設計
│ 55.10使用人工智慧的方式
│ 55.1智慧存在的意義是什麼
│ 55.2已有人工智的設計應用
│ 55.3人的智慧(一)
│ 55.4人的智慧(二)
│ 55.5人的智慧的特點(一)
│ 55.6人的智慧的特點(二)
│ 55.7人的智慧的特點(三)
│ 55.8人工智慧(一)
│ 55.9人工智慧(二)

├─56-網路
│ 56.1卷積的本質
│ 56.2卷積的三大特點
│ 56.3Pooling
│ 56.4數字識別(一)
│ 56.5數字識別(二)
│ 56.6感受野
│ 56.7RNN

├─57-線動力學
│ 57.1非線動力學
│ 57.2線動力系統
│ 57.3線動力學與非線動力學系統(一)
│ 57.4線動力學與非線動力學系統(二)
│ 57.6Poincare引理

├─58-訂單流模型
│ 58.1交易
│ 58.2點過程基礎(一)
│ 58.3點過程基礎(二)
│ 58.4點過程基礎(三)
│ 58.5訂單流資料分析(一)
│ 58.6訂單流資料分析(二)
│ 58.7訂單流資料分析(三)
│ 58.8訂單流資料分析(四)
│ 58.9訂單流資料分析(五)

├─59-區塊鏈一場革命
│ 59.1比特幣(一)
│ 59.2比特幣(二)
│ 59.3比特幣(三)
│ 59.4以太坊簡介及ICO

├─60-統計物理專題(一)
│ 60.10證明理想氣體方程
│ 60.11化學勢
│ 60.12四大熱力學勢(一)
│ 60.13 四大熱力學勢(二)
│ 60.1統計物理的開端(一)
│ 60.2統計物理的開端(二)
│ 60.3拋硬幣丟擲正態分佈(一)
│ 60.4拋硬幣丟擲正態分佈(二)
│ 60.5再造整個世界(一)
│ 60.6再造整個世界(二)
│ 60.7溫度的本質(一)
│ 60.8溫度的本質(二)

├─61-統計物理專題(二)
│ 61.1神奇公式
│ 61.2資訊熵(一)
│ 61.3資訊熵(二)
│ 61.4Boltzmann分佈
│ 61.5配分函式

├─62-複雜網路簡介
│ 62.1Networks in real worlds
│ 62.2BasicConcepts(一)
│ 62.3BasicConcepts(二)
│ 62.4Models(一)
│ 62.5Models(二)
│ 62.6Algorithms(一)
│ 62.7Algorithms(二)

├─63-ABM簡介及金融市場建模
│ 63.10ABM與複雜系統建模-交通系統(一)
│ 63.11ABM與複雜系統建模-交通系統(二)
│ 63.12ABM金融市場-SFI股票市場模型(一)
│ 63.13ABM金融市場-SFI股票市場模型(二)
│ 63.14ABM金融市場-genova市場模型
│ 63.15ABM金融市場-Agent及其行為
│ 63.16學習模型
│ 63.17ABM金融市場-價格形成機制
│ 63.18ABM的特點
│ 63.1課程介紹
│ 63.2系統與系統建模
│ 63.3ABM與複雜系統建模(一)
│ 63.4ABM與複雜系統建模(二)
│ 63.5ABM與複雜系統建模(三)
│ 63.6ABM為經濟系統建模
│ 63.7經典經濟學如何給市場建模
│ 63.8ABM與複雜系統建模-市場交易
│ 63.9ABM與複雜系統建模-技術擴散

├─64-用伊辛模型理解複雜系統
│ 64.10(網路中的)投票模型
│ 64.11觀念動力學
│ 64.12集體運動Vicsek模型
│ 64.13自旋玻璃
│ 64.14Hopfield神經網路
│ 64.15限制Boltzmann機
│ 64.16深度學習與重正化群(一)
│ 64.17深度學習與重正化群(二)
│ 64.18總結
│ 64.19答疑
│ 64.1伊辛模型的背景及格氣模型
│ 64.2伊辛模型(一)
│ 64.3伊辛模型(二)
│ 64.4從能量到統計分佈及Monte Carlo模擬
│ 64.5Ising Model(2D)
│ 64.6相變和臨界現象
│ 64.7Critical Exponents
│ 64.8正問題和反問題
│ 64.9(空間中的)投票模型

├─65-金融市場的複雜性
│ 65.10Classical Benchmarks(五)
│ 65.11Endogenous Risk(一)
│ 65.12Endogenous Risk(二)
│ 65.13Endogenous Risk(三)
│ 65.14Endogenous Risk(四)
│ 65.15Endogenous Risk(五)
│ 65.16Endogenous Risk(六)
│ 65.17Heterogeneous Beliefs(一)
│ 65.18Heterogeneous Beliefs(二)
│ 65.19總結
│ 65.1導論(一)
│ 65.2導論(二)
│ 65.3導論(三)
│ 65.4導論(四)
│ 65.5導論(五)
│ 65.6Classical Benchmarks(一)
│ 65.7Classical Benchmarks(二)
│ 65.8Classical Benchmarks(三)
│ 65.9Classical Benchmarks(四)

├─66-廣泛出現的冪律分佈
│ 66.1界(一)
│ 66.2界(二)
│ 66.3界(三)
│ 66.4界(四)
│ 66.5城市、商業(一)
│ 66.6城市、商業(二)
│ 66.7啟示(一)
│ 66.8啟示(二)
│ 66.9總結

├─67-自然啟發演算法
│ 67.10粒子群演算法(一)
│ 67.11粒子群演算法(二)
│ 67.12粒子群演算法(三)
│ 67.13遺傳演算法和PSO的比較)
│ 67.14更多的類似的演算法(一)
│ 67.15更多的類似的演算法(二)
│ 67.16答疑
│ 67.1課程回顧及答疑
│ 67.2概括(一)
│ 67.3概括(二)
│ 67.4模擬退火演算法(一)
│ 67.5模擬退火演算法(二)
│ 67.6進化相關的演算法(一)
│ 67.7進化相關的演算法(二)
│ 67.8進化相關的演算法(三)
│ 67.9進化相關的演算法(四)

├─68-機器學習的方法
│ 68.10輸出是最好的學習(二)
│ 68.11案例(一)
│ 68.12案例(二)
│ 68.13案例(三)
│ 68.14案例(四)
│ 68.15案例(五)
│ 68.1為什麼要講學習方法
│ 68.2閱讀論文
│ 68.3綜述式文章舉例(一)
│ 68.4綜述式文章舉例(二)
│ 68.5碎片化時間學習及書籍
│ 68.6視訊學習資源及做思維導圖
│ 68.7鐵哥答疑(一)
│ 68.8鐵哥答疑(二)
│ 68.9輸出是最好的學習(一)

├─69-模型視覺化工程管理
│ 69.10定製化視覺化系統—Jupyter Dashboard(一)
│ 69.11定製化視覺化系統—Jupyter Dashboard(二)
│ 69.12變身前端—seaboarn+Bokeh+Echarts
│ 69.13日誌管理系統—ELK
│ 69.14極速Bi系統—superset
│ 69.15Dashboard補充
│ 69.16ELK補充
│ 69.17Superset補充
│ 69.18Superset補充及總結
│ 69.1課程簡介
│ 69.2虛擬換環境—Anaconda&docker(一)
│ 69.3虛擬換環境—Anaconda&docker(二)
│ 69.4虛擬換環境—Anaconda&docker(三)
│ 69.5虛擬換環境—Anaconda&docker(四)
│ 69.6虛擬換環境—Anaconda&docker(五)
│ 69.7虛擬換環境—Anaconda&docker(六)
│ 69.8虛擬換環境—Anaconda&docker(七)
│ 69.9虛擬換環境—Anaconda&docker(八)

├─70-Value Iteration Networks
│ 70.1Background&Motivation
│ 70.2Value Iteration
│ 70.3Grid—world Domain
│ 70.4總結及答疑

├─70-最新回放
│ 0822 CNN RNN回顧 非線性動力學引入
│ 0822 高頻訂單流模型、區塊鏈介紹

├─71-線動力學系統(上)
│ 71.10混沌(一)
│ 71.11混沌(二)
│ 71.12混沌(三)
│ 71.13混沌(四)
│ 71.14混沌(五)
│ 71.15混沌(六)
│ 71.16混沌(七)
│ 71.17混沌(八)
│ 71.18混沌(九)
│ 71.19混沌(十)
│ 71.1線動力學系統(一)
│ 71.20混沌(十一)
│ 71.2線動力學系統(二)
│ 71.3二維繫統動力學綜述—Poincare引理
│ 71.4Bifurcation(一)
│ 71.5Bifurcation(二)
│ 71.6Bifurcation(三)
│ 71.7Bifurcation(四)
│ 71.8Bifurcation(五)
│ 71.9Bifurcation(六)

├─72-線動力學系統(下)
│ 72.1自然語言處理(一)
│ 72.2自然語言處理(二)
│ 72.3RNN
│ 72.4RNN

├─73-自然語言處理匯入
│ 73.1中文分詞
│ 73.2中文分詞、依存文法分析
│ 73.3篇章分析、自動摘要、知識提取、文字相似度計算
│ 73.4知識庫構建、問答系統
│ 73.5示範2的豆瓣評論詞雲(一)
│ 73.6示範2的豆瓣評論詞雲(二)
│ 73.7示範2的豆瓣評論詞雲(三)
│ 73.8示範2的豆瓣評論詞雲(四)
│ 73.9示範2的豆瓣評論詞雲(五)

├─74-複雜網路上的物理傳輸過程
│ 74.10一些傳播動力學模型(七)
│ 74.11一些傳播動力學模型(八)
│ 74.12模擬模型的建立過程(一)
│ 74.13模擬模型的建立過程(二)
│ 74.14模擬模型的建立過程(三)
│ 74.15模擬模型的建立過程(四)
│ 74.16Combining complex networks and data mining
│ 74.1一些基本概念
│ 74.2常用的統計描述物理量
│ 74.3四種網路模型
│ 74.4一些傳播動力學模型(一)
│ 74.5一些傳播動力學模型(二)
│ 74.6一些傳播動力學模型(三)
│ 74.7一些傳播動力學模型(四)
│ 74.8一些傳播動力學模型(五)
│ 74.9一些傳播動力學模型(六)

├─75-RNN及LSTM
│ 75.10梯度消失與梯度爆炸(二)
│ 75.11Reservoir computing—偷懶方法
│ 75.12LSTM
│ 75.13LSTM、Use Examples
│ 75.14詞向量、Deep RNN
│ 75.15Encoder Decoder Structure
│ 75.16LSTM Text Generation(一)
│ 75.17LSTM Text Generation(二)
│ 75.18LSTM Text Generation(三)
│ 75.1RNN—序列處理器(一)
│ 75.2RNN—序列處理器(二)
│ 75.3A simple enough case
│ 75.4A dance between fix points
│ 75.5Fix point、Train Chaos
│ 75.6RNN作為生成模型(動力系統)
│ 75.7RNN訓練—BPTT(一)
│ 75.8RNN訓練—BPTT(二)
│ 75.9梯度消失與梯度爆炸(一)

├─76-漫談人工智慧創業
│ 76.10三個戰略管理學商業模型(三)
│ 76.11三個戰略管理學商業模型(四)
│ 76.12三個戰略管理學商業模型(五)
│ 76.13三個戰略管理學商業模型(六)
│ 76.14三個戰略管理學商業模型(七)
│ 76.15三個戰略管理學商業模型(八)
│ 76.16三個戰略管理學商業模型(九)
│ 76.17關於Entrepreneurship
│ 76.1人工智慧對我們生活的影響(一)
│ 76.2人工智慧對我們生活的影響(二)
│ 76.3人工智慧對我們生活的影響(三)
│ 76.4人工智慧對我們生活的影響(四)
│ 76.5人工智慧對我們生活的影響(五)
│ 76.6人工智慧對我們生活的影響(六)
│ 76.7人工智慧創業中的商業思維
│ 76.8三個戰略管理學商業模型(一)
│ 76.9三個戰略管理學商業模型(二)

├─77-學習其他主題
│ 77.1
│ 77.10程式講解(三)
│ 77.2玻爾茲曼機—聯想的機器
│ 77.3玻爾茲曼機
│ 77.4學習(一)
│ 77.5學習(二)
│ 77.6學習(三)
│ 77.7學習(四)
│ 77.8程式講解(一)
│ 77.9程式講解(二)

└─78-課程總結
78.10課程總結(二)
78.1開場
78.2Attention例項—Spatial Transformer
78.3貓狗大戰—CNN實戰(一)
78.4貓狗大戰—CNN實戰(二)
78.5RNN
78.6課程複習
78.7課程大綱(一)
78.8課程大綱(二)
78.9課程總結(一)

100元一份,點選右側【打賞】後,加我 QQ:344436884 索取資料。