根據TrendForce最新高速互連市場研究,NVIDIA下世代的AI算力櫃架構顯示,未來GPU設計重心將轉向更高密度的晶片互連,和更高速的資料傳輸,機櫃內晶片互連(Scale-Up)及跨機櫃的大規模互連(Scale-Out)將成規劃資料中心的核心課題。使用銅纜的傳統電氣傳輸方案,受物理限制無法應對超大規模的資料搬運需求,光學傳輸方案因此獲得發展空間。TrendForce預估,CPO(共同封裝光學)在AI資料中心光通訊模組的滲透率將逐年成長,有機會於2030年達35%。
根據TrendForce最新調查,2025年第四季全球NAND Flash產業營收持續受惠於AI建置需求,前五大品牌廠營收合計大幅季增23.8%,達211.7億美元。尤其北美雲端服務供應商(CSP)布建AI server基礎設施,刺激enterprise SSD需求爆發式成長,加乘HDD嚴重缺貨、交期過長帶來的轉單效應,整體NAND Flash短缺情況惡化,推升價格漲勢,供應商營收因此受益。
根據TrendForce最新調查顯示,由於AI應用由LLM模型訓練延伸至推論,推動CSPs業者的資料中心建置重心由AI server延伸至general server,進一步推動記憶體採購重心由HBM3e、LPDDR5X及大容量RDIMM延伸至各類容量的RDIMM,積極釋出追加訂單,帶動conventional DRAM的合約價大幅上漲,2025年第四季DRAM產業營收為535.8億美元,較上季度增加29.4%。
根據TrendForce最新AI server產業研究,為加速AI應用導入與升級,全球雲端服務供應商(CSP)持續加強投資AI server及相關基礎建設,預計2026年八大主要CSP的合計資本支出將超越7,100億美元,年增率約61%。業者除持續採購NVIDIA、AMD GPU方案,也擴大導入ASIC基礎設施,以確保各項AI應用服務的適切性,以及資料中心建置成本效益。
根據TrendForce最新HBM產業研究,隨著AI基礎建設擴張,對應的GPU需求也不斷成長,預期NVIDIA Rubin平台量產後,將可望帶動HBM4需求。目前三大記憶體原廠的HBM4驗證程序已進展至尾聲,預計於2026年第二季陸續完成。其中,Samsung憑藉最佳的產品穩定性,預期將率先通過驗證,SK hynix、Micron隨後跟上,可望形成三大廠供應NVIDIA HBM4的格局。