雲端廠 AI 戰開打,ChatGPT 未來邁向商用,GPU 需求上看 3 萬顆

作者 | 發布日期 2023 年 03 月 01 日 15:24 | 分類 AI 人工智慧 , GPU , 晶片 line share follow us in feedly line share
雲端廠 AI 戰開打,ChatGPT 未來邁向商用,GPU 需求上看 3 萬顆


ChatGPT 近期掀起雲端與 AI 產業話題,微軟、Google、百度等相繼推出基於生成式 AI 衍生的產品服務,TrendForce 最新報告《從 AIGC 看雲端 AI 應用趨勢與挑戰》指出,熱潮下 GPU 及 AI 晶片相關供應鏈業者如 NVIDIA、台積電、欣興、世芯、力旺等可望受惠。不過市場普及度和產品服務的功能最佳化仍待考驗,且 AI 以用戶體驗為核心,涉及個資及內容正確性,因此下個發展階段或面臨法規問題。

TrendForce表示,生成式AI是透過GAN、CLIP、Transformer、Diffusion等演算法、預訓練模型、多模組等AI技術整合,在既有數據或資料尋找規律,並在資料彙整、社交互動、文案產出等領域帶出高效內容生產,以及與用戶互動體驗。現行市面有不少生成式AI應用,較常見的類別有文字、圖像、音樂、程式等。

搶占AI商機,雲端大廠應先強化搜尋引擎

數據、算力、算法是深耕生成式AI不可或缺的三大關鍵, 且產品服務易做但最佳化困難,握有資源的雲端大廠發展更具優勢。就廠商角度而言,ChatGPT等生成式AI聊天機器人不僅能與用戶自然對話,「類理解需求」能力能進一步提供各式諮詢建議,加上搜尋引擎相當普遍,故強化搜尋引擎已是各雲端大廠的首要任務。TrendForce調查,目前全球搜尋引擎市場以超過九成的Google引擎為首,微軟Bing僅占3%,短期間不致造成威脅,但隨著用戶擴大、數據回饋與模型最佳化循環,是否會產生服務差異甚或搶占廣告商機,是Google不得不預防的潛在風險。

GPU及AI晶片需求增,台廠世芯、力旺等受惠

生成式AI必須投入巨量資料訓練,為縮短訓練就得採用大量高效能GPU。以ChatGPT背後GPT模型為例,訓練參數從2018年約1.2億個到2020年暴增至近1, 800億個,TrendForce估GPU需求量預估約2萬顆,邁向商用將上看3萬顆(以NVIDIA A100為計算基礎)。生成式AI發展將成為趨勢,帶動GPU需求顯著提升,連帶使相關供應鏈受惠,最大受益者是GPU晶片龍頭輝達(NVIDIA),旗下可達5PetaFLOPS運算效能的DGX A100,幾乎是目前大規模資料分析、AI加速運算首選;此外尚有MI100、MI200、MI300系列晶片的超微(AMD);台廠則有負責晶圓代工的台積電、ABF載板業者南電、景碩、欣興等、AI晶片相關廠商創意、世芯、智原、力旺等。

涉及個資內容正確性,生成式AI產品服務將面臨法規挑戰

以ChatGPT為首的相關應用,直接將AI以簡易互動方式帶到消費者面前,TrendForce預期各行業語音客服、遊戲、零售、語音助理等領域,會是生成式AI發展初期主要應用領域。考量現行大廠產品仍持續最佳化,小廠產品發展有限,後續產品服務能否新穎實用兼具,仍是持續推升成長動能的關鍵。此外,下階段產業須面對法令規範與訓練素材挑戰,前者包括必須保護個資、內容正確性,以及合法合規等;後者仰賴相關知識平台服務商能否篩選與整合多元內容,交由生成式AI開發商訓練。

(首圖來源:shutterstock)