據NVIDIA最新財報數據(FY2Q24)顯示,其資料中心業務達103.2億美元,季成長率141%,年成長率更高達171%,且NVIDIA看好後續成長力道。TrendForce認為,主要NVIDIA高營收成長動力來自於其資料中心AI伺服器相關解決方案業務,主力產品包含AI加速晶片GPU、AI伺服器參考架構HGX等,作為大型資料中心的AI 基礎設施。
同時,TrendForce預期,NVIDIA將進一步整合其軟硬體資源,並更細緻地將其高階及中低階GPU AI加速晶片,與各ODM或OEM綁定合作軟硬體系統認證模式。除了加速在CSP雲端AI伺服器基礎設施布建之外,也和VMware等合作Private AI Foundation等方案,將其觸角延伸至邊緣Enterprises AI伺服器市場,以支撐其今、明兩年資料中心業務穩定成長。
Cloud AI強勁需求驅動,NVIDIA資料中心業務占比超越76%
NVIDIA近年積極布局資料中心業務,FY4Q22當時資料中心業務營收約占42.7%,尚落後於Gaming業務營收約2個百分點,於FY1Q23後正式超越Gaming業務營收,占比逾45%。自2023年起,各大CSP大舉投入ChatBOT及公有雲各種AI服務基礎設施後,NVIDIA更直接受惠,FY2Q24資料中心業務營收占比一舉突破76%。
NVIDIA將分攻Cloud及Edge Data Center AI應用市場
TrendForce觀察,預估NVIDIA在高階GPU產品銷售策略上,將於2023下半年後有所轉變,原高階AI伺服器主打以搭載A100及H100為主,在市場需求大好的預期下,將改主攻售價更高的H100,才能有效刺激資料中心相關業務營收向上。
中階GPU方面,以近期主推的L40s為主打方案,其中有幾個主要策略意義。首先,高階H100系列受限於目前CoWoS、HBM等產能有限,而L40s則主要搭配GDDR記憶體,因不須CoWoS封裝,可加速導入中階AI伺服器市場,補足原A100 PCIe介面對Enterprises客戶需求缺口。
其次,L40s也同時主攻如Enterprises客戶,不需使用如ChatGPT數量龐大的參數模型,而是主攻較小型化(約數十billion~百billion參數量以下)各專業領域的AI Training應用,亦或針對邊緣AI Inference或影像分析等使用。最後,針對中國客戶可能因地緣政治問題,導致高階GPU H系列供應受阻風險,則可用L40s補足。低階GPU系列,則以L4或T4系列為主打,主打邊緣AI伺服器即時AI推論或影像分析使用,並更強調較低價,其高C/P值的產品特性。
HGX及MGX等AI伺服器參考架構將是NVIDIA下半年後主攻AI方案的利器
TrendForce觀察,近期NVIDIA除針對其核心AI晶片GPU進行更細緻化的產品定位外,也積極主推其HGX及MGX等方案,而這並不是伺服器產業鏈首見作法,但NVIDIA有機會在此策略上穩固領先利基。主要是NVIDIA藉由高度整合其GPU加上CUDA建立完整AI生態系下處絕對領先位置,故對既有的伺服器供應鏈有較強議價能力,藉此要求ODM如Inventec、Quanta、FII、Wistron、Wiwynn等,或品牌業者如Dell、Supermicro、Gigabyte等,依據NVIDIA的HGX或MGX參考設計,且需經過NVIDIA於該AI 伺服器參考架構的軟硬體認證過程。NVIDIA藉此可整合兜售其Arm CPU Grace及NPU或AI Cloud Foundation等軟硬體解決方案。
值得注意的是,對ODM或OEM而言,由於預期NVIDIA於2023~2024年在雲端服務業者的AI伺服器主力市場將大有斬獲,有利於拉抬整體AI伺服器出貨量及營收成長,但隨著NVIDIA策略性導入HGX或MGX等標準化AI伺服器架構,也使未來ODM等業者將因AI server核心產品架構較趨於同質化而使彼此爭取CSPs等訂單之競爭態勢更趨於白熱化。此外,觀察大型CSPs如Google、AWS未來有擴大導入自研ASIC AI加速晶片趨勢,亦可能侵蝕部分NVIDIA GPU市場,估此亦為NVIDIA持續推展不同定位GPU產品及整體方案,欲進一步將AI業務積極拓展至Tier-2資料中心如CoreWeave等及邊緣Enterprises客戶的主因之一。
若有興趣進一步了解並購買TrendForce旗下半導體研究處相關報告與產業數據,請至https://www.trendforce.com.tw/research/dram查閱,或洽詢業務鍾小姐lattechung@trendforce.com。
相關文章
相關報告