據TrendForce最新HBM市場研究顯示,為了更妥善且健全的供應鏈管理,NVIDIA也規劃加入更多的HBM供應商,其中三星(Samsung)的HBM3(24GB)預期於今年12月在NVIDIA完成驗證。而HBM3e進度依據時間軸排列如下表所示,美光(Micron)已於今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士(SK hynix)已於今年8月中提供8hi(24GB)樣品、三星則於今年10月初提供8hi(24GB)樣品。
由於HBM驗證過程繁瑣,預計耗時兩個季度,因此,TrendForce預期,最快在2023年底可望取得部分廠商的HBM3e驗證結果,而三大原廠均預計於2024年第一季完成驗證。值得注意的是,各原廠的HBM3e驗證結果,也將決定最終NVIDIA 2024年在HBM供應商的採購權重分配,然目前驗證皆尚未完成,因此2024年HBM整體採購量仍有待觀察。
NVIDIA持續擴展AI晶片產品,在高階晶片市場擁最大優勢
展望2024年,觀察目前各AI晶片供應商的開案進度,NVIDIA 2023年的高階AI晶片(採用HBM)的既有產品為A100/A800以及H100/H800;2024年則將把產品組合(Product Portfolio)更細緻化的分類。除了原上述型號外,更再推出使用6顆HBM3e的H200以及8顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的 CPU與GPU,推出GH200以及GB200。
相比同時期的AMD與Intel產品規劃,AMD 2024年出貨主流為MI300系列,採用HBM3,下一代MI350將採用HBM3e,預計2024下半年開始進行HBM驗證,實際看到較明顯的產品放量(Ramp Up)時間預估應為2025年第一季。
以Intel Habana來看,2022下半年推出的Gaudi 2採用6顆HBM2e,2024年中預期在新型號Gaudi 3持續採取HBM2e,但將用量升級至8顆。因此,TrendForce認為,NVIDIA在HBM規格、產品準備度(Readiness)及時間軸上,可望持續以領先的GPU規格,在AI晶片競局取得領先。
HBM4或將轉向客製化,擺脫Commodity DRAM產品框架
除了HBM3與HBM3e外,據TrendForce了解, HBM4預計規劃於2026年推出,目前包含NVIDIA以及其他CSP(雲端業者)在未來的產品應用上,規格和效能將更優化。受到規格更往高速發展帶動,將首次看到HBM最底層的Logic die(又名Base die)採用12nm製程wafer,該部分將由晶圓代工廠提供,使得單顆HBM產品需要結合晶圓代工廠與記憶體廠的合作。
再者,隨著客戶對運算效能要求的提升,HBM4在堆疊的層數上,除了現有的12hi (12層)外,也將再往16hi (16層)發展,更高層數也預估帶動新堆疊方式hybrid bonding的需求。HBM4 12hi產品將於2026年推出;而16hi產品則預計於2027年問世。
最後,TrendForce也觀察到,針對HBM4,各買方也開始啟動客製化要求,除了HBM可能不再僅是排列在SoC主晶片旁邊,亦有部分討論轉向堆疊在SoC主晶片之上。雖然目前所有選項仍在討論可行性中,並尚未定案,但TrendForce認為,未來HBM產業將轉為更客製化的角度發展,相比其他DRAM產品,在定價及設計上,更加擺脫Commodity DRAM的框架,呈現特定化的生產。
若有興趣進一步了解並購買TrendForce旗下半導體研究處相關報告與產業數據,請至https://www.trendforce.com.tw/research/dram查閱,或洽詢SR_MI@trendforce.com。
相關文章
相關報告