華為釋出兩款AI晶片,單晶片計算密度達全球最大
“之前一直傳華為要做AI晶片,這確實是真的。”華為輪值董事長徐直軍在今天上海舉行的第三屆HUAWEI CONNECT 2018(華為全聯接大會)上如是說。
徐直軍表示,今天AI再次進入了“收穫”的季節。這是60年來全球ICT學術界和工業界長期耕耘,相互合作的成果。如同公元前的輪子和鐵,19世紀的鐵路和電力,以及20世紀的汽車、電腦、網際網路一樣,華為認同:人工智慧是一組技術集合,是一種新的通用目的技術(GPT)。
在上午的主題演講環節,徐直軍提出了10個人工智慧的重要改變方向:模型訓練、算力、AI部署、演算法、AI自動化、實際應用、模型更新、多技術協同、平臺支援、人才獲得。這十個改變不是人工智慧的全部,但是基礎。
基於這十個改變,華為制定了人工智慧發展戰略:投資基礎研究、打造全棧方案、投資開放生態和人才培養、解決方案增強、內部效率提升。
徐直軍稱,華為在AI上的全新戰略,包括人工智慧晶片、基於晶片賦予技術框架的CANN和訓練框架MindSpore、以及ModelArts,華為將其稱之為“全棧全場景AI解決方案”。
“我們提出的全場景,是指包括公有云、私有云、各種邊緣計算、物聯網行業終端以及消費類終端等部署環境。全棧指的是技術功能視角,是指包括晶片、晶片使能、訓練和推理框架和應用使能在內的全堆疊方案。”徐直軍進一步表示,基於統一、可擴充套件架構的系列化AI IP 和 晶片,包括Max,Mini,Lite,Tiny和Nano等五個系列。“包括我們今天釋出的華為昇騰910(Ascend 910),是目前全球已釋出的單晶片計算密度最大的AI晶片,還有Ascend 310,是目前面向計算場景最強算力的AI SoC。”
具體來看,華為所說的“全棧”包含四個部分:
一是Ascend (昇騰) ,AI IP和晶片,皆是基於達芬奇架構。晶片分為5個系列,Max、Lite、Mini、Tiny、Nano。
二是CANN,全稱為Compute Architecture for Neural Networks (為神經網路定製的計算架構) ,是高度自動化的運算元開發工具。根據官方資料,CANN可以3倍提升開發效率。除了效率之外,也兼顧運算元效能,以適應學術和行業應用的迅猛發展。
三是MindSpore架構,友好地將訓練和推理統一起來,集成了各類主流框架 (獨立的和協同的) :包括TensorFlow、PyTorch、PaddlePaddle、Keras、ONNX、Caffe、Caffe 2、MXNet等等。這一架構全面適應了端、邊、雲場景。
四是ModelArts,這是一個機器學習PaaS (平臺即服務) ,提供全流程服務、分層分級API,以及預整合方案。用於滿足不同開發者的不同需求,促進AI的應用。
此外,徐直軍在現場透露,華為昇騰910將在2019年2季度上市。
根據現場的介紹,這款屬於Max系列的昇騰910,採用7nm工藝製程,最大功耗為350W。在現場的PPT中,華為將其和谷歌TPU v2、谷歌TPU v3、英偉達 V100進行了對比。“可以達到256個T,比英偉達 V100還要高出1倍!”徐直軍說。
事實上,在人工智慧領域,華為此前已動作頻頻。
在兩年前,華為另一名輪值董事長郭平就表示,公司每年至少拿出10億美元的研發預算,用於與資料中心相關的投入。
2017年9月,華為釋出了面向企業、政府的人工智慧服務平臺華為雲EI。今年4月,華為又釋出了面向智慧終端的人工智慧引擎HiAI。
但在投入的過程中,發現了一個普遍存在的問題,就是雲服務平臺不賣終端晶片,賣終端晶片的平臺不提供雲端計算服務。因此,這種割裂的環節讓開發者浪費了大量的時間和精力以及財力在訓練和部署之間。
此前,谷歌雲推出了用於邊緣計算的Edge TPU,作為Cloud TPU的補充,使用者可以在雲上構建和訓練ML模型,然後通過Edge TPU硬體加速器在Cloud IoT Edge裝置上執行這些模型,這在某種程度上降低了開發者的成本。
但如果能出現一套框架,讓手機、公有云、私有云、邊緣計算等不同平臺的AI應用應用一次調校就能部署,將會比Edge TPU更有效率。
“今天,我們釋出的全棧全場景解決方案是對華為雲EI和HiAI的強有力支撐。基於這個解決方案,華為雲EI能為企業、政府提供全棧人工智慧解決方案;HiAI能為智慧終端提供全棧解決方案,且HiAI service是基於華為雲EI部署的。”徐直軍說。
一位華為人士在社交平臺發表感嘆時表示,“(華為)又多了一些強大的全球頂級競爭對手。”
責編:劉佳
此內容為第一財經原創。未經第一財經授權,不得以任何方式加以使用,包括轉載、摘編、複製或建立映象。第一財經將追究侵權者的法律責任。 如需獲得授權請聯絡第一財經版權部:021-22002972或021-22002335;banquan@yicai.com。