2款AI晶片、深度學習框架MindSpore:華為史無前例集中釋出AI戰略
今天上午,在上海舉行的 2018 全聯接大會上,華為輪值董事長徐直軍宣佈了華為的 AI 戰略與全棧式解決方案,同時釋出了兩款全新 AI 晶片以及跨平臺深度學習框架。可以說,這是近年來 BAT 等巨頭高調投入 AI 之際,華為高層首次對外宣佈集團層面的 AI 戰略。
華為本次釋出的 AI 全棧式解決方案,讓這家公司成為目前全球唯一提供 AI 全棧軟體和系列化晶片的提供商。同時,華為還提供了一套與之配套的統一開發框架。
華為 AI 發展戰略
AI 是基礎生產力,這個觀點是華為通過自身的實踐總結出的經驗,現在華為希望把提升自身生產力的技術開放出來,供所有人使用。「自 2017 年起,華為就確定了構建萬物互聯的願景,」華為輪值董事長徐直軍表示。「為此,華為制定了 AI 發展戰略。如同工業化革命期間的電力和鐵路一樣,人工智慧是 21 世紀的新通用目的技術。」
徐直軍表示,華為之所以強調 AI 是一種通用技術,是為了讓我們正視 AI 的價值,AI 不僅能夠讓我們高效解決已經解決的問題,還可以解決很多未解決的問題。
華為認為,人工智慧帶來的改變將涉及所有行業,包括交通、教育、醫療和金融。而人工智慧引發的變革才剛剛開始,目前我們正處在 AI 應用與社會環境相互碰撞的時期。在研究層面,2017 年全球發表的機器學習論文數量已經達到了 2 萬餘篇,目標檢測、機器翻譯的效能超越人類;而另一方面,只有約 4% 的企業已經投資或部署了 AI 技術,5% 的高等教育機構使用了 AI 等等,這反映出應用層面的冷靜。現階段,這種研究與應用之間的落差令人欣喜,同時選擇解決正確的問題是最重要的任務。
徐直軍表示,為了彌合這種研究與應用之間的差距,AI 需要以下十大改變:
華為花費很長時間介紹了目前人工智慧面臨的 10 大挑戰。基於這十大改變,華為的 AI 發展戰略包括五個方面:
-
投資基礎研究:在計算視覺、自然語言處理、決策推理等領域構築資料高效(更少的資料需求)、能耗高效(更低的算力和能耗),安全可信、自動自治的機器學習基礎能力。
-
打造全棧方案:打造面向雲、邊緣和端等全場景的、獨立的以及協同的、全棧解決方案,提供充裕的、經濟的算力資源,簡單易用、高效率、全流程的 AI 平臺。
-
投資開放生態和人才培養:面向全球,持續與學術界、產業界和行業夥伴廣泛合作,打造人工智慧開放生態,培養人工智慧人才。
-
解決方案增強:把 AI 思維和技術引入現有產品和服務,實現更大價值、更強競爭力。
-
內部效率提升:應用 AI 優化內部管理,對準海量作業場景,大幅度提升內部運營效率和質量。
基於這樣的考量,華為提出了自己的全棧 AI 解決方案。
全棧全場景 AI 解決方案
據介紹,華為的全棧方案具體包括:
-
Ascend: 基於統一、可擴充套件架構的系列化 AI IP 和 晶片,包括 Max、Mini、Lite、Tiny 和 Nano 五個系列。包括今天釋出的華為昇騰 910(Ascend 910),它是目前全球已釋出的單晶片中計算密度最大的 AI 晶片,還有 Ascend 310,它是目前面向計算場景最強算力的 AI SoC。
-
CANN: 晶片運算元庫和高度自動化運算元開發工具。
-
MindSpore:支援端、邊、雲獨立的和協同的統一訓練和推理框架。
-
應用使能:提供全流程服務(ModelArts)、分層 API 和預整合方案。
此前曝光的「達芬奇計劃」旨在讓 AI 技術融入華為的所有產品和業務,包括為雲伺服器研發的專用 AI 加速晶片,也包括 5G 技術的研發,在智慧攝像頭等終端裝置、甚至智慧駕駛上搶奪先機。
其中,華為自研的人工智慧計算晶片是重中之重。「如果說算力的進步是當下 AI 大發展的主要驅動因素,那麼,算力的稀缺和昂貴正在成為制約 AI 全面發展的核心因素。」徐直軍表示。
今天,華為釋出了兩顆全新的 AI 晶片:Ascend 910 與 Ascend 310。
華為首席架構師黨文栓介紹說,Ascend 晶片採用統一達芬奇架構:可擴充套件計算、可擴充套件記憶體、可擴充套件片上互聯。因此,這是全球首個覆蓋全場景的智慧晶片系列。
AScend 910
AI 雲晶片是人們關注的重點。「媒體一直在預測華為正在開發 AI 晶片,今天我要告訴你:你們的猜測是對的!」徐直軍說道。
在釋出會上,華為簡要介紹了兩款晶片的效能指標,伺服器晶片昇騰(Ascend)910 採用 7nm 製程,最大功耗為 350W,算力比英偉達 Tesla V100 還要高出一倍。華為稱,昇騰 910 是目前單晶片計算密度最大的晶片。華為並不像谷歌一樣只在自己的伺服器中使用 AI 雲晶片,這款晶片將於明年二季度正式上市。
在釋出晶片的同時,華為還發布了大規模分散式訓練系統 Ascend 叢集,在設計中,該叢集將包括 1024 個 Asced 910 晶片,算力達到 256P,大幅超過英偉達 DGX2 和谷歌 TPU 叢集。這種伺服器將同樣在 2019 年二季度推出,幫助開發者更快地訓練模型。
Ascend 310
與高功耗的 910 一同推出的 Ascend 310 是昇騰迷你係列的第一款產品。據稱這款晶片功耗為 8 瓦,採用 12nm 工藝,算力可達 16TFLOPS,其集成了 16 通道全高清視訊解碼器,具體效能見上圖。
除此之外,在 2019 年華為還將釋出三款昇騰 IP:Ascend Lite、Ascend Tiny、Ascend Nano。華為還將釋出基於 Ascend 310 的多款 AI 產品,分別面向不同場景,如 Atlas800、MDC 600 等。
基於昇騰 310/910,華為還將提供相應的加速卡和伺服器,以支援公有云、私有云服務。
華為希望提供全棧、全場景的開發平臺,因此今天華為還發布了深度學習框架、運算元開發工具 CANN 以及提供全流程服務的分層 API 和預整合方案。
CANN 與 AI 框架 MindSpore
在硬體之上,華為還提出了完整的軟體堆疊,以實現一次性運算元開發、一致的開發和除錯體驗。華為希望能夠幫助開發者實現一次性開發,應用在所有裝置端、邊緣及雲端平滑遷移的能力。
其中,運算元庫 CANN 面向人工智慧不斷出現的多樣性運算元,兼顧了高效能和高開發效率。其中的TensorEngine 實現了統一的 DSL 介面、自動運算元優化、自動運算元生成,以及自動運算元調優功能。值得一提的是,華為在TensorEngine 中採用了陳天奇等人提出的 TVM。華為稱,CANN 可以實現 3 倍的開發效率提升。
MindSpore 是華為提出的 AI 框架,與TensorFlow、PyTorch、PaddlePaddle 等框架並列。華為認為未來的 AI 將會由任務驅動,非常個性化。隨著技術發展,安全問題和算力問題成為重要挑戰。歐盟推出的 GDPR 法案讓很多網際網路公司被迫重新規制自身業務;另一方面,自AlexNet到AlphaGoZero,人工智慧演算法的算力需求也提升了 300000 倍。
MindSpore 可覆蓋終端裝置到雲伺服器的所有場景。在釋出會上,華為介紹了 MindSpore 裝置端深度學習框架,其容量只有不到 2m 大小,執行時佔用記憶體不到 50m。華為表示,MindSpore 同時也支援目前所有主流深度學習框架中的模型。
在框架之上,華為還為開發者提供了更為高階的 ModelArts,這是一個機器學習PaaS,提供全流程服務、分層分級 API 及預整合解決方案。
「AI 將重新定義應用開發,」首席戰略架構師黨文栓表示。「我們的 ModelArts 將支援全流程模型生產,支援人工智慧條件下的開發流程。」
華為還推出了面向生產自動化的 ExeML
在相容性方面,華為表示,目前的 Cloud EI 也支援 GPU 的開發。華為提供的預整合解決方案支援公有云和混合雲環境。
在今年 8 月於重慶召開的首屆智博會上,華為雲 BU 總裁、華為副總裁鄭葉來表示,華為將圍繞「用得起、用得好、用得放心」三個方面進行深入探索,最終實現「普惠 AI」。在今天的一系列產品釋出之後,相信我們已經對華為的全部願景有所瞭解。
ofollow,noindex" target="_blank">產業 華為 AI 晶片 深度學習框架
相關資料
Artificial Intelligence
在學術研究領域,人工智慧通常指能夠感知周圍環境並採取行動以實現最優的可能結果的智慧體(intelligent agent)
來源: Russell, S., & Norvig, P. (2003). Artificial Intelligence: A Modern Approach.
AlexNet
AlexNet是一個卷積神經網路的名字,最初是與CUDA一起使用GPU支援執行的,AlexNet是2012年ImageNet競賽冠軍獲得者Alex Krizhevsky設計的。該網路達錯誤率大大減小了15.3%,比亞軍高出10.8個百分點。AlexNet是由SuperVision組設計的,由Alex Krizhevsky, Geoffrey Hinton和Ilya Sutskever組成。
來源: ImageNet Classification with Deep Convolutional Neural Networks
AlphaGo
阿爾法圍棋是於2014年開始由英國倫敦Google DeepMind公司開發的人工智慧圍棋程式。AlphaGo是第一個打敗人類職業棋手的計算機程式,也是第一個打敗圍棋世界冠軍的計算機程式,可以說是歷史上最強的棋手。 技術上來說,AlphaGo的演算法結合了機器學習(machine learning)和樹搜尋(tree search)技術,並使用了大量的人類、電腦的對弈來進行訓練。AlphaGo使用蒙特卡洛樹搜尋(MCTS:Monte-Carlo Tree Search),以價值網路(value network)和策略網路(policy network)為指導,其中價值網路用於預測遊戲的勝利者,策略網路用於選擇下一步行動。價值網路和策略網路都是使用深度神經網路技術實現的,神經網路的輸入是經過預處理的圍棋面板的描述(description of Go board)。
來源: Deepmind
Machine Learning
機器學習是人工智慧的一個分支,是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、計算複雜性理論等多門學科。機器學習理論主要是設計和分析一些讓計算機可以自動“學習”的演算法。因為學習演算法中涉及了大量的統計學理論,機器學習與推斷統計學聯絡尤為密切,也被稱為統計學習理論。演算法設計方面,機器學習理論關注可以實現的,行之有效的學習演算法。
來源:Mitchell, T. (1997). Machine Learning. McGraw Hill.
Natural language processing
自然語言處理(英語:natural language processing,縮寫作 NLP)是人工智慧和語言學領域的分支學科。此領域探討如何處理及運用自然語言;自然語言認知則是指讓電腦“懂”人類的語言。自然語言生成系統把計算機資料轉化為自然語言。自然語言理解系統把自然語言轉化為計算機程式更易於處理的形式。
來源: 維基百科
Machine translation
機器翻譯(MT)是利用機器的力量「自動將一種自然語言(源語言)的文字翻譯成另一種語言(目標語言)」。機器翻譯方法通常可分成三大類:基於規則的機器翻譯(RBMT)、統計機器翻譯(SMT)和神經機器翻譯(NMT)。
來源:機器之心
Deep learning
深度學習(deep learning)是機器學習的分支,是一種試圖使用包含複雜結構或由多重非線性變換構成的多個處理層對資料進行高層抽象的演算法。 深度學習是機器學習中一種基於對資料進行表徵學習的演算法,至今已有數種深度學習框架,如卷積神經網路和深度置信網路和遞迴神經網路等已被應用在計算機視覺、語音識別、自然語言處理、音訊識別與生物資訊學等領域並獲取了極好的效果。
來源: LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436.
Tensor
張量是一個可用來表示在一些向量、標量和其他張量之間的線性關係的多線性函式,這些線性關係的基本例子有內積、外積、線性對映以及笛卡兒積。其座標在 維空間內,有 個分量的一種量,其中每個分量都是座標的函式,而在座標變換時,這些分量也依照某些規則作線性變換。稱為該張量的秩或階(與矩陣的秩和階均無關係)。 在數學裡,張量是一種幾何實體,或者說廣義上的“數量”。張量概念包括標量、向量和線性運算元。張量可以用座標系統來表達,記作標量的陣列,但它是定義為“不依賴於參照系的選擇的”。張量在物理和工程學中很重要。例如在擴散張量成像中,表達器官對於水的在各個方向的微分透性的張量可以用來產生大腦的掃描圖。工程上最重要的例子可能就是應力張量和應變張量了,它們都是二階張量,對於一般線性材料他們之間的關係由一個四階彈性張量來決定。
來源: 維基百科
Tianqi Chen
陳天奇,華盛頓大學計算機系博士生,此前畢業於上海交通大學ACM班,研究方向為大規模機器學習。陳天奇曾獲得KDD CUP 2012 Track 1第一名,並開發了SVDFeature,XGBoost,cxxnet等著名機器學習工具,是最大開源分散式機器學習專案DMLC的發起人之一。
涉及領域
來源: Tianqi Chen

You will always be lucky if you know how to make friends with strange cats.