拆解 NVIDIA GH / GB200 超級晶片供應鏈!外資點名這些廠商受惠

作者 | 發布日期 2024 年 04 月 01 日 9:27 | 分類 AI 人工智慧 , GPU , 伺服器 line share follow us in feedly line share
拆解 NVIDIA GH / GB200 超級晶片供應鏈!外資點名這些廠商受惠


輝達(NVIDIA)地表最強 AI 晶片 GB200 橫空出世,由兩顆 B200 與 Grace CPU 晶片封裝而成,並一顆 B200 晶片功耗高達 1,000 瓦至 1,200 瓦,首度採水冷散熱技術,成為市場關注焦點,外資出具最新報告拆解 NVIDIA GH / GB200 超級晶片供應鏈。

外資表示,輝達 GB200 明年占 70%、GH200 占 30%,GB200 分為 NVL36 及 NVL72,並預計將以 NVL36 為主,而 NVL36 的機櫃(rack)約 150 萬至 200 萬美元,至於 NVL72 為 1.8x(不到 2x)。

散熱方面,外資表示,每個 GPU 為 300 美元,較市場預估的 2,000 美元少,而市場傳 GB200 散熱為 4 萬至 8 萬美元,每個元件至少有四家供應商,預估價格理應不會太高,但 CSP(雲端服務供應商)沒有一定要個別採買零件,或是一定要完整解決方案,因此個個有機會,但個個沒把握。

進入百家爭鳴搶市的局面,外資表示,輝達 CPU 為自行推的 Grace,屬於 ARM 架構,CSP 想用 ASIC 或 x86 架構,但從 GTC 大會推出後,CSP 客戶給予正面回應,從 CP 值來看,每花 1 美元的算力更好,而且輝達也會提供 x86 架購產品。

CoWoS 目前仍是以台積電為主,外資表示,但今年也會新增 amkor(艾克爾)及英特爾供應鏈,合計與台積電將各占一半,明年輝達目標 600 萬至 650 萬顆,GB200 占 70%,算起來 5.8 萬至 11.7 萬個機櫃,今年約 400 萬至 450 萬顆。

GB200 組裝方面,外資表示,鴻海最大、緯創為 tier 1,至於廣達則算 tier 2,而且鴻海積極爭取 GB200  機櫃,但 CSP 不會放棄 ASIC,而且時間拖越久,效能未能急劇跳耀,數量就會越來越少,預估今年訓練模型的 GPU,就會轉為推理模型,使 ASIC 數量可能沒辦法上升。

ASIC 方面,外資分析,Amazon、微軟、Google、Meta 四大雲端服務供應商,目前就是看 Amazon、Google,其中 Amazon 遜強攻自研晶片,世芯為 Trainium1 提供 7 奈米設計服務,邁威爾(Marvell)負責 Trainium2 的 5 奈米專案,創意為 ASIC 設計服務協力廠。

外資強調,信驊近期提到通用伺服器訂單陸續恢復,預期 CSP 客戶可能降低前一世代的 AI 伺服器採購,等待 GB200 出貨,因此先將今年預算用在通用伺服器採購,代表 H100 既有 ODM 及 ASIC AI 供應鏈有下修風險。

(首圖來源:NVIDIA

延伸閱讀: