新聞中心

TrendForce:全球AI Server需求高漲,有望帶動2024年產值達1,870億美元,產值占伺服器市場比重約65%


17 July 2024 半導體 TrendForce

根據TrendForce最新發布「AI Server(伺服器)產業分析報告」指出,2024年大型CSPs及品牌客戶等對於高階AI Server的高度需求未歇,加上CoWoS原廠TSMC及HBM原廠如SK hynix、Samsung及Micron逐步擴產下,於今年第2季後短缺狀況大幅緩解,連帶使得NVIDIA主力方案H100的交貨前置時間(Lead Time)從先前動輒40-50周下降至不及16周,因此TrendForce預估AI Server第2季出貨量將季增近20%,全年出貨量上修至167萬台,年增率達41.5%。

TrendForce表示,今年大型CSPs預算持續聚焦於採購AI Server,進而排擠一般型server成長力道,相較於AI server的高成長率,一般型server出貨量年增率僅有1.9%。而AI Server占整體server出貨的比重預估將達12.2%,較2023年提升約3.4個百分點。若估算產值,AI Server的營收成長貢獻程度較一般型server明顯,預估2024年AI Server產值將達逾1,870億美元,成長率達69%,產值占整體server高達65%。

從AI server搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,以及中國本土業者如Ali、Baidu、Huawei等積極擴大自主ASIC 方案,促ASIC server占整體AI server的比重在2024年將提升至26%,而主流搭載GPU的AI Server占比則約71%。

就AI Server搭載的AI晶片供應商分布來看,單看AI server搭載GPU,NVIDIA市占率最高、逼近9成,AMD市占率則僅約8%。但若加計所有AI server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市占率則約64%。

據TrendForce的調查,展望2025年市場對於高階AI Server需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平台成為市場主流,此亦將帶動CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸將較H100翻倍,會消耗更多的CoWoS用量,預估2025年主要供應商TSMC的CoWoS生產量規模至年底總產能可達550k-600k,成長率逼近8成。另以HBM用量來看,2024年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,將搭載達288GB的HBM3e,單位用量成長逾3倍,隨AI server市場需求持續強勁下,有望帶動2025年HBM整體供給量翻倍成長。

若有興趣進一步了解並購買TrendForce旗下半導體研究處相關報告與產業數據,請至https://www.trendforce.com.tw/research/dram查閱,或洽詢SR_MI@trendforce.com


上一則
TrendForce:預期2025年記憶體產業營收將受惠均價上揚與HBM、QLC崛起而創新高
下一則
TrendForce:AI伺服器、AI筆電硬體升級帶動高容值MLCC需求,推升供應商平均售價

聯繫我們