神達控股旗下子公司神雲科技今日宣布將在 NVIDIA GTC 2026,以「Enterprise AI, Flexible by Design」為主題,展示其在 NVIDIA MGX架構的 AI 伺服器與全方位 AI 一站式(Turnkey)解決方案的最新突破,為客戶提供涵蓋 AI 訓練、推理以及檢索增強生成(RAG)應用的端到端實力。
為了解決現代 AI 工作負載的複雜性,神雲科技將硬體與先進軟體棧整合,實現無縫的 GPU 管理與高效能儲存應用,並透過與 Rafay 的戰略夥伴關係,神雲科技支援統一的控制面(Control Plane)功能,具備管理大規模容器化環境的能力。
這項合作協助企業簡化 Kubernetes 編排(Orchestration),並透過 Slurm 控制器實現高效能運算(HPC)與 AI 工作負載的自動化調度,更透過簡化複雜的編排流程,神雲科技與 Rafay 讓企業在擴展 AI 工作負載時,能兼顧效率與企業級的營運治理。
Rafay 共同創辦人暨執行長 Haseeb Budhani 表示,這次與神雲科技的合作,透過提供統一平台管理海量容器集群,簡化現代 AI 的複雜性。藉由將 Rafay 的軟體棧與神雲在 MGX 架構的系統整合,協助企業自動化 Kubernetes 編排與 Slurm AI 任務調度,實現高效擴展。
這套進階的 Pod 管理解決方案由神雲科技基於 NVIDIA MGX 參考架構所打造的次世代 G 系列高吞吐量 4U AI Powerhouse 提供強勁動力,而這款 4U 雙路伺服器搭載兩顆最新的 AMD EPYC「Venice」處理器,並支援高達 8 張雙槽 GPU。
平台配置 NVIDIA RTX PRO 4500 Blackwell Server Edition 或 NVIDIA RTX PRO 6000 Blackwell Server Edition,搭載 NVIDIA H200 GPU,系統整合 E3.S PCIe Gen 5 外型規格的Micron 9550 NVMe SSD或 Solidigm D7-PS1010 ,專為大規模生成式 AI 訓練與推理量身打造。
實現一站式 AI 推理與 RAG 解決方案
針對多模態 RAG(檢索增強生成)流水線對數據的密集需求,神雲科技與 DDN 聯手展示 AI Data Storage Solution,採用 DDN Infinia,能為即時 AI 推理回應提供極低延遲的文檔檢索,並透過最小化數據移動來極大化 GPU 利用率,進而支援高吞吐量的 AI 工作負載。
這套解決方案架構整合神雲科技基於 NVIDIA MGX 架構的次世代 4U AI 平台,並由同樣基於 NVIDIA MGX 的 R1917GC 管理伺服器提供支援,構建出橫跨核心(Core)、邊緣(Edge)與管理層的統一 AI 基礎設施。
為了替 AI 規模的資料湖(Data Lake)架構奠定堅實基礎,方案納入 GC68A-B8056 儲存伺服器。這是一款 1U 單路高密度平台,具備支援 DDR5-4800 記憶體的 24 個 DIMM 插槽,以及 12 個支援熱插拔、免工具安裝的 NVMe U.2 硬碟槽,提供高效能的儲存密度。
神雲科技總經理黃承德(Rick Hwang)表示,這次透過與 Rafay 及 DDN 的策略合作,神雲科技提供全方位的一站式(Turnkey)AI 基礎設施,滿足 AI 訓練、推理與 RAG 應用的全生命週期需求,正為次世代資料中心客戶提供全球先進的端對端解決方案。
(首圖來源:神雲科技)






