01/09/2023
稱霸AI晶片!NVIDIA吃掉9成AI利潤,科技巨頭尋找替代方案!未來競爭格局將面臨巨變?
半導體龍頭輝達(NVIDIA)剛於8月底發表財報,表現超出華爾街預期,刺激股價飆升,不但令公司市值穩站在1兆美元(約7.8兆港元)以上,更帶動美國科技股整體上漲。如此亮眼的業績,不禁讓人懷疑該公司在AI晶片市場上是否還有對手。乘著生成式AI浪潮而登頂的NVIDIA,下一步將如何鞏固其AI晶片霸業?未來又將會面對甚麼潛在威脅呢?
全球搶購GPU令輝達收入暴漲
NVIDIA在2024年第二季收入躍升到135.1億美元(約1,053.78億港元),超出市場預期的 112.2 億美元;公司毛利率上升至71.2%,超出預期的69%;營業利潤則為 77.7億美元(約606.06億港元),年增率達到155%,淨利年增率更高達422%。
同時,NVIDIA在財報中提出樂觀的財測,預計第三季收入可望達到160億美元(約1,248億港元),較2022年同期暴漲170%;淨利有望激增至61.9億美元(約482.82億港元),遠超2022年同期的6.56億美元(約51.17億港元);公司毛利率則預計為72%左右。
如此驕人的財報表現,突顯NVIDIA圖像處理器(Graphics Processing Unit,GPU)在生成式AI浪潮中有著舉足輕重的地位。輝達出品的A100、H100 GPU晶片,現已被科技業者視為開發AI大型語言模型的首選裝備。當日OpenAI對GPT-4模型展開數據訓練,就動用了約25,000顆A100晶片。
除各大科技巨頭如Google、亞馬遜(Amazon)、Meta外,英國、沙特阿拉伯、阿聯酋都大手搶購A100、H100晶片,導致NVIDIA GPU供應非常短缺。於是,輝達計劃將H100 晶片產能提高至少3倍,預計出貨量從2023年的50萬顆增至2024年的150至200萬顆。
目前全球最搶手的AI晶片,是NVIDIA出品的H100 GPU,售價高達4萬美元(約31.2萬港元)。(圖片來源:NVIDIA官網)
NVIDIA的AI運算產品線非常完整,除單一GPU晶片外,還有內置多顆GPU的超級電腦可供選購。(圖片來源:NVIDIA官網)
輝達數據中心營收未來仍會攀升
可是,有投資者擔心,當下NVIDIA形勢大好,可能因為企業被近期ChatGPT熱潮衝昏頭腦,所以把AI晶片需求往前挪。半導體研究集團SemiAnalysis首席分析師巴特爾(Dylan Patel)指出,很多科技公司即使尚未確定如何運用NVIDIA GPU來開發AI產品賺錢,但為免錯失良機,不惜砸下重金進行採購;到了某一天,生成式AI終於出現了可持續獲利的用途,屆時大部分公司可能會停止再投資,只剩下能夠真正獲利的公司會繼續加碼投資。
投資研究機構Morningstar Research分析師布賴恩·科萊洛(Brian Colello)對此看法不以為然。他認為,現時根本找不到GPU訂單是一次性購買、或是將支出挪前的證據,所以預估NVIDIA在2024會計年度從數據中心市場獲取的收入,可望達到410億美元(約3,198億港元),遠多於2023年的150億美元(約1,170億港元)。
科萊洛進一步預測,未來幾年輝達數據中心營收仍會持續攀升,有望從2025會計年度的600億美元(約4,680億港元),增長至2028年度的1,000億美元(約7,800億港元)。他認為,未來幾季每顆出廠的輝達GPU晶片都會被搶購一空。
全球數據中心轉向加速運算架構
NVIDIA執行長黃仁勳(Jensen Huang)豪言:「一個新的運算時代已經展開,全世界的公司正從通用型電腦運算,轉型為加速運算與生成式AI。」他認為,為迎合生成式AI的蓬勃發展,全球數據中心正逐漸從以中央處理器(CPU)為基礎的傳統運算架構,轉向以GPU為核心的加速運算架構。
NewEdge Wealth基金經理人本.埃蒙斯(Ben Emons)認為,左右美國利率政策走向的人不再是聯儲局主席鮑威爾,而是NVIDIA執行長黃仁勳,足證輝達已對美國經濟有著極大影響力。(圖片來源:NVIDIA官網)
換言之,數據中心可以少買一些超微(AMD)、英特爾(Intel)的CPU,轉為多買一些NVIDIA GPU,以建構生成式AI所需的加速運算平台。德意志銀行分析師羅斯·西莫爾(Ross Seymore)評估,NVIDIA數據中心收入將會是AMD、Intel加總起來的兩倍以上,凸顯輝達GPU對數據中心是何等重要。
此外,黃仁勳又指出,上至從法律合約、下至營銷文案,均可利用生成式AI產製出來,未來各行各業將會使用愈來愈多由AI生成的內容。他認為,數據中心架構轉型、產業需求AI生成內容兩大趨勢,已持續了大概一個季度,不會就此結束。不過,黃氏卻拒絕評論,2024年以後生成式AI熱潮能否繼續保持熱度。
黃仁勳與伺服器廠建立緊密關係
黃仁勳明白,NVIDIA不能只是坐享AI熱潮紅利而甚麼也不做。為求鞏固AI晶片霸業,黃仁勳早已作出3大部署。首先,他積極拉攏伺服器廠商,以建立更緊密關係。2023年5月,他旋風式訪問台灣,頻繁地出現在各家伺服器廠商的活動上,就是要穩固供應鏈樁腳,為其AI晶片布局做好準備。
大家要知道,AI模型運算能否暢行無阻,軟硬件整合正是箇中關鍵。目前全球大型企業都傾向擁有屬於自己的AI模型,這樣可能需要為其度身訂造的專用AI伺服器,才可以實現最順暢的運算表現。就算是Microsoft Azure、Amazon AWS和Google Cloud等雲端服務商,面對不同產業客戶的業務需要,對AI伺服器客製化的需求亦會有所增加。
Amazon旗下雲端服務供應商AWS的數據中心,現已大量採用NVIDIA GPU來提供加速運算服務。(圖片來源:Amazon官方網誌)
倘若要做到完全客製化,就需要晶片、系統、軟件公司等整個生態系廠商互相配合。如此一來,伺服器廠商所扮演的整合性角色將會變得愈加重要。因此,輝達只要跟伺服器廠商能夠保持良好的緊密關係,便能夠按照客戶需求製造出多樣化的產品——無論是數據中心適用的大規模運算架構,還是企業內部需要用到的單一AI伺服器,輝達都可以全面提供。這正是NVIDIA能夠搶下AI伺服器市場9成份額的主要原因之一。
善用CUDA固守市場防對手進入
其次,黃仁勳利用研發多年的編程工具平台《CUDA》,作為NVIDIA在AI領域的「護城河」。軟件工程師使用《CUDA》開發AI應用軟件時,可以跳過撰寫低階編程語法的步驟,直接採用高階語法諸如《C++》或《Java》等來編寫適用於NVIDIA GPU的演算法,以實現最佳的運算效能。
《CUDA》平台提供大量針對GPU架構深度優化的函數庫,可讓軟件工程師直接使用,有助簡化AI軟件開發流程。(圖片來源:NVIDIA官網)
幾乎所有採用NVIDIA GPU的企業,皆培育了一群深諳《CUDA》架構的工程師。AI軟件開發商如要轉用非輝達產品,就要重新訓練員工來適應新架構,故此絕大部分公司都不會輕易作出改變。假如競爭者無法突破《CUDA》這條護城河,根本不能攻入此市場。
有鑑於此,輝達主要對手AMD已推出自家的編程工具軟件《ROCm》,務求跟《CUDA》一較高下。2023年8月,AMD宣布收購法國AI軟件商Mipsology,以進一步強化《ROCm》。有分析師指出,此舉可能會迫使NVIDIA加快提升和改善《CUDA》的功能,以提高用戶黏著度。
跨足雲端市場擴大AI業務版圖
再者,黃仁勳嘗試跨足雲端服務市場,以擴大其AI業務版圖。2023年3月,輝達宣布推出雲端服務「DGX Cloud」,讓無法負擔高昂NVIDIA晶片價格的小公司,可以在雲端上享用GPU的強大運算力。DGX Cloud使用NVIDIA DGX超級電腦提供雲端運算,每台均配備8顆H100或A100 晶片和640GB記憶體。
自此以後,NVIDIA從只造硬件的AI晶片生產商,搖身一變為提供雲端運算的服務供應商。對AI初創來說,AI運算力是非常昂貴和稀有的資源;透過DGX Cloud,初創便可用較低成本來研發和部署AI應用。在當下運算力不足的AI發展期,NVIDIA可以藉此吸納更多初創加入其AI運算陣營,壯大《CUDA》生態圈。
此舉又可讓輝達搶攻氣象模擬、地球模擬、甚至國家級精密運算等高端AI運算市場,開拓新客源。黃仁勳曾表示,他最喜愛的AI應用場景不是在科技產業,而是在研發新藥和分析氣候變遷,更認為日後AI應用將會延伸至農業、製造業、以至製藥業等。
AI模型開源引發自定義晶片浪潮
儘管NVIDIA風頭聲勢一時無兩,市場上看似沒有具份量的競爭對手,但未來仍需面對2大挑戰。首先,自ChatGPT爆紅後,科技界對AI模型應開放原始碼的呼聲愈來愈高,以免生成式AI的發展被OpenAI、Google等大企業壟斷。Meta於2023年2月發布開源AI模型LLaMA,迄今已被申請使用逾10萬次,代表著開源已作為AI模型發展的主流趨勢。
當中小企業可以運用開源模型來開發自家的AI模型後,就能夠依據某個開源模型版本,按照自身業務需要,製作自定義設計的特殊應用晶片(Application Specific Integrated Circuit,ASIC)。ASIC晶片只需達成單一而明確的任務,架構設計較簡單,製造成本也較便宜,讓企業可以自行建構更具成本效益的AI運算平台。
如今AI伺服器的生產成本,NVIDIA GPU已佔去當中近九成。對伺服器廠商來說,GPU佔成本比重過高,產品毛利自然不好。因此,當AI模型開源與ASIC晶片方案興起後,伺服器廠商可能會積極尋找NVIDIA以外的AI晶片供應來源,以達成更佳的成本控制。
在Computex 2023展覽會上,伺服器廠商Supermicro總裁暨執行長梁見後(左)邀請了NVIDIA執行長黃仁勳(右),作為主題演講的嘉賓。(圖片來源:NVIDIA官網)
輝達陷入與雲端大客戶競爭局面
其次,輝達跨入雲端市場,雖然有助拓展業務,但卻會跟客戶形成互相競爭的局面,可能會加速雲端服務商尋求替代方案。現時NVIDIA先以高價把GPU賣給雲端服務商,跟著再租用雲端服務商的硬件平台來提供DGX Cloud賺錢。於是,前台、後台兩邊錢都由輝達賺到盡,AI利潤幾乎全都進入該公司的口袋。
NVIDIA推廣DGX Cloud,勢必跟微軟、亞馬遜、Google三大客戶爭搶雲端市場份額,令雙方關係變得緊張。這樣將會促使這些雲端巨頭多採購一些AMD GPU,或加快開發自家AI晶片的腳步。亞馬遜現正埋首研發新一代AI晶片Inentia和Trainium,為客戶提供NVIDIA GPU的替代方案;Google基於自家開發的張量處理器(Tensor Processing Unit,TPU),推出Cloud TPU雲端運算服務,可用作訓練AI模型。
NVIDIA利用其DGX超級電腦建構DGX Cloud雲端平台,為企業提供雲端AI運算服務,明顯與AWS、Azure等雲端服務商的客戶重疊。(圖片來源:NVIDIA官網)
Google TPU屬於自定義設計的ASIC晶片,適合用來訓練大型語言模型。(圖片來源:Google Cloud官網)
市調機構Gartner預測,2023年全球AI半導體收入將較2022年增長20.9%,達到534億美元(約4,165億港元);之後幾年,估計收入仍可保持兩位數成長,2024年的增長率為 25.6%,達到671億美元(約5,234億港元);及至2027年,AI晶片收入將倍增到1,194 億美元(約9,313億港元),較2023年市場規模高出一倍以上。
沒有一家公司願意看到,如此龐大的市場被輝達一家壟斷。為求擺脫NVIDIA GPU和降低成本,愈來愈多企業將會考慮開發自家的ASIC晶片。Gartner預估,未來自定義設計的AI晶片部署量將會增加,這樣可能會取代當前的主流晶片架構。
【與拍賣官看藝術】走進Sotheby's Maison睇睇蘇富比旗艦藝廊!蘇富比如何突破傳統成規?► 即睇