現在與未來:AI晶片第一股英偉達緣何盛名難副?
日前,全球AI晶片第一股英偉達在釋出了不及預期的2019財季第三季度財報及第四季度業績展望後,股價一度暴跌近20%,而在過去一個月中,英偉達股價已經下跌超過14%。那麼問題來了,這兩年股價一直暴漲,頗有AI晶片“妖股”之稱的英偉達緣何出現股價暴跌?
眾所周知,以PC圖形晶片(GPU)為核心的英偉達之所以股價和市值暴漲,最根本的原因是其自身和外界賦予了英偉達AI晶片(公司)的名頭,而AI被外界公認為是未來晶片產業的發展方向。
儘管如此,從英偉達的財報看,傳統的PC圖形晶片依然是其營收和利潤的主要來源(至少營收依然佔到了一半)。而此次財報釋出後股價的暴跌,究其原因,也主要與其圖形晶片庫存的增加和“挖礦”晶片需求的減少而導致業績未達預期密切相關。雖然與AI真正相關的資料中心和智慧駕駛等等晶片業務營收的處在增長之中,但鑑於其在英偉達整體營收的比重不足以影響整體的業績表現,所以仍未能成為影響其股價走勢的主要因素。
實際上不僅是剛剛過去的第三季度,從過去接近一年英偉達傳統PC圖形晶片業務一直佔據其一半營收左右的事實,至少從短期看,英偉達仍不能稱之為AI晶片公司或者說按照AI晶片公司衡量其股價和市值。而就在英偉達釋出財報之後,曾經因為AI而看好英偉達股價的高盛將從其“確信名單”中剔除,聲稱它“顯然看錯了這隻股票”,低估了該公司庫存積壓的嚴重性,也從側面證實了業內審視英偉達的標準開始發生變化(至少不能完全以AI企業的標準來衡量)。
如果說上述是英偉達實際業務構成和表現顯現出其作為全球AI晶片第一股盛名難副的話,那麼即便是將其放置當下和未來的AI晶片中也遠非外界普遍認為的那般強大,至少存有一定的誤區。
曾幾何時,在英偉達、媒體和分析機構等的大力鼓吹和宣傳下,英偉達似乎成為了AI晶片,甚至是整個AI產業的代表。但事實遠非如此。我們僅以目前AI晶片市場規模最大,也是英偉達GPU應用最為廣泛的資料中心支撐的雲端計算為例,具體到所謂AI晶片的應用,主要分為雲端訓練(Training)和雲端推理(Inferencing),也理應是業內現在和未來以AI之名衡量英偉達股價和市值的主要依據。
其中在強調算力重要性的雲端訓練方面,由於GPU具備的算力的天然優勢,英偉達目前佔有絕對領先的市場份額,但在雲端推理方面,先不說傳統的CPU目前就可以承擔接近一半AI相關應用的負載,從AI晶片的角度,與英偉達的GPU在雲端訓練方面近乎一家獨大不同,其呈現的百花齊放之勢,且晶片大佬雲集。例如基於FPGA的全球FPGA晶片巨頭賽靈思(Xilinx)和英特爾(併購來的Altera)。
對此,美國投資研究機構MorningStar分析師Abhinav Davuluri分析稱,英特爾與賽靈思之所以在雲端的推理階段具備優勢,首先是在推理方面,並不需要GPU強大的算力(更注重功率效率),其次英特爾和賽靈思有比英偉達更廣泛的晶片選擇,包括CPU、FPGA、協處理器和特殊應用積體電路(ASIC)等。
例如在CPU方面,雖然在雲端訓練方面的算力上不及GPU,但在注重功率效率的雲端推理上則有望超越GPU。
以CPU市場的老大英特爾為例,在斯坦福大學更新的DAWNBenchmark測試成績顯示,英特爾的ResNet模型(Caffe框架),即完全由Xeon處理器構建的亞馬遜EC2平臺,推理延遲和推理成本上都拿下第一。具體來說,英特爾平臺處理10000張圖片的延遲是9.96ms,成本0.02美元,相比之下,英偉達基於MXNet框架的K80顯示卡+4 CPU平臺的成本是0.07美元、延遲29.4ms。
需要說明的是,DAWNBench是一套用於端到端深度學習訓練和推理的基準套件,提供了一套通用的深度學習評價指標,用於量化訓練時間、訓練成本、推理延遲以及推理成本,並通過不同的優化策略、模型體系結構、軟體框架、雲和硬體來計算推理成本。
除了CPU外,英特爾在今年美國舊金山舉辦的人工智慧開發者大會上,還推出了基於ASIC專為機器學習設計的神經網路處理器晶片Nervana NNP-L1000(Spring Crest),有分析稱這款NNP將大幅超越GPU。
同樣,作為全球FPGA晶片巨頭的賽靈思不久前也宣佈推出專為雲端推理設計的AI晶片,這款名為Versal的晶片將FPGA與兩個更高效能的ARM處理器相結合,再加上一個專用的AI計算引擎,與現有硬體相比,可以實現更高的吞吐量、更低的延遲和更高的功效。對此有分析師表示,賽靈思推出這款Versal晶片是將矛頭對準了英偉達及其已經成為AI工作負載標準的GPU。
通過上述的分析,我們不難發現,在所謂AI晶片應用最大的雲端計算市場,按照雲端訓練和推理競爭的AI應用衡量,晶片廠商競爭的核心無非是晶片的處理能力(算力)和功率效率。而英偉達的優勢目前只是體現在了雲端訓練的算力上,在注重功率效率的雲端推理上顯然並不具備絕對的優勢,且面臨強大的競爭對手。
而眾所周知的事實是,一個完整的AI雲端解決方案,從訓練走向推理是必然,而英偉達能否將在雲端訓練上的優勢擴充套件到雲端推理,業內一直存有相當的爭議,這也讓英偉達在最大的AI晶片應用市場的未來能否是絕對的老大充滿了變數。
如果說上述是英偉達在最大AI晶片應用市場面臨激烈競爭能否延續既有優勢存疑的話,那麼在既有的算力優勢上,英偉達的挑戰已經到來。而且這些挑戰者均是目前英偉達GPU使用者的非晶片企業。其中最典型的就是谷歌已經發展了三代的TPU。
相比於傳統GPU圖形晶片,TPU使用8位低精度計算以節省電晶體,對精度影響很小但可以大幅節約功耗,而若把多個TPU整合在一起,在增強效能的同時,功耗也會低於多個GPU整合。具體到今年釋出的第三代TPU,據稱,其新運算陣列TPUv3 Pod 的計算能力遠遠超過了100 Petaflops,這無疑使得英偉達在今年NVIDIA GTC 2018大會上釋出的可容納16塊Tesla V100 GPU的DGX-2提供的2Petaflops的算力相形見絀。而更讓英偉達感到不安的是,谷歌宣佈今年宣佈開放自己的TPU算力和生態,這無疑又會間接影響到目前在雲端使用英偉達GPU作為AI晶片的企業,減少對於其GPU的採購和使用。
不僅是谷歌,像諸如微軟、亞馬遜、中國的華為、阿里巴巴、百度等這些英偉達的大客戶均已經發布和準備涉足AI晶片(主要是面向雲端的AI應用)。
例如微軟正在開發基於FPGA的Brainwave,阿里巴巴正在研發一款神經網路晶片Ali-NPU,該晶片將運用於影象視訊分析、機器學習等AI推理計算。華為更是在日前舉行的華為全連結2018大會上釋出了兩款AI晶片:昇騰910、昇騰310。其中昇騰910作為單晶片計算密度最大的AI晶片,算力遠高於谷歌研發的TPU V3、NVIDIA V100晶片,達到了驚人的256TFLOPS。而阿里巴巴正在研發一款神經網路晶片Ali-NPU,該晶片將運用於影象視訊分析、機器學習等AI推理計算。