2022~2026 年 AI 伺服器出貨量年複合成長率可達 10.8%

作者 | 發布日期 2023 年 03 月 08 日 14:18 | 分類 AI 人工智慧 , 伺服器 , 半導體 line share follow us in feedly line share
2022~2026 年 AI 伺服器出貨量年複合成長率可達 10.8%


TrendForce 觀察到始自 2018 年新興應用題材帶領,自駕車、AIoT 與邊緣運算,許多大型雲端業者大量投資 AI 相關設備建置,截至 2022 年,搭載 GPGPU(General Purpose GPU)的 AI 伺服器年出貨量占整體伺服器比重近 1%,2023 年預估 ChatBot 相關應用加持下,可望再度刺激 AI 領域活絡,出貨量年成長可達 8%;2022~2026 年複合成長率達 10.8%。

TrendForce統計,2022年AI伺服器採購占比以北美四大雲端業者Google、 AWS、Meta、微軟合計占66.2%為最,中國近年隨國產化力道加劇,AI建置浪潮增溫,以字節跳動採購力最顯著,年採購占比達6.2%,緊跟在後是騰訊、阿里巴巴與百度,分別約2.3%、1.5%與1. 5%。

藉AI最佳化自家搜尋引擎,AI需求持續帶動HBM記憶體成長

看好AI發展前景,微軟更大舉投資OpenAI,除2月推出搜尋引擎Bing強化版,整合ChatGPT技術及與OpenAI合作開發大型語言模型「Prometheus」;百度也於2月宣布推出AI機器人服務「文心一言」( ERNIE Bot),初期將以獨立軟體呈現,後續也會導入搜尋引擎。

以運算規格看,ChatGPT以NVIDIA的A100為主,獨家使用微軟Azure雲端資源。若合併其他微軟應用計算,全年微軟AI伺服器年需求為2.5萬台。百度文心一言採NVIDIA的A800(美國商務部管制A100出口後的替代品),合併其他應用,百度AI伺服器年需求約2千台。TrendForce分析,以AI運算伺服器GPU而言,市場以NVIDIA的H100、A100、A800(滿足中國需求)及AMD MI250、MI250X系列為主,NVIDIA與AMD伺服器GPU占比約8:2。

若聚焦以上GPU規格,因應高頻寬運算的HBM(High Bandwidth Memory)更受市場矚目。以位元計算,HBM占整個DRAM市場比重約1.5%,供應商以三星(Samsung)、SK海力士(SK Hynix)與美光(Micron)為主。 但NVIDIA的HBM3,SK海力士是目前唯一量產廠商,因此此規格主導市場,由於生產技術門檻高,對原廠屬高毛利產品。

2020~2021年疫情期間擔心供應鏈缺料,超額備料使HBM年需求成長率特別亮眼,自2023年起需求成長率因物料調節有收斂。TrendForce預估,2023~2025年HBM市場年複合成長率有望達40%~45%。整體而言,伴隨全球雲端業者逐年增加AI伺服器投資,儘管大環境受高通膨、經濟增長放緩衝擊,企業組織IT支出轉趨保守,但ChatBot與搜尋引擎應用帶動下,AI相關轉型布局仍視為雲端業者資本支出優先項目。

(首圖來源:Created by Freepik