力積電開發 AI 晶片提升 IoT 單晶片效能,並降低功耗及開發成本

作者 | 發布日期 2019 年 11 月 21 日 9:15 | 分類 AI 人工智慧 , 國際貿易 , 晶片 follow us in feedly


在 5G、AI、IoT 可說是近幾年半導體產業最熱門的議題的情況下,為因應 5G 時代 AI 邊緣運算需求持續增加,如何提升 IoT 晶片 AI 運算效率卻不增加功耗,已成為 IC 設計產業難題。對此,TwIoTA(台灣物聯網產業技術協會)理事長,同時也是力積電董事長黃崇仁表示,透過力積電新開發的 AI 晶片,可以有效降低 AIoT 應用服務設備開發成本。

黃崇仁 20 日於 2019 日本嵌入式&物聯網技術大展(ET & IoT Technology 2019)上進行專題演講時表示,力積電開發中的 AI 晶片(AI Memory)技術,是將 MCU 與 DRAM 整合到單一晶片上,並讓記憶體資料可依照需求進行非循序存取,進而提升影像神經網路運算 10 倍處理效率,讓 IC 設計業者開發出體積更小的單晶片電腦(Single Chip Computer),進而降低 AIoT 應用服務設備開發成本。

黃崇仁進一步指出,人類大腦有大約 10 的 11 次方個神經元(neuron)與 10 的 15 次方個突觸 (synaptic),形成一個連接線路高達數千英里的立體性神經網路架構。但是,整個大腦的耗電量只有 25 瓦,可說是非常省電。力積電在研究分析大腦神經元運作架構之後,耗費許久開發出 AI 晶片(AI Memory,AIM) 技術,協助 IC 設計業者可以開發出給 AI 運算用的 AI 晶片,不僅低耗電,AI 運算效率也能符合應用需求。

他還表示,IC 設計業者可以透過 AIM Innovation Service Platform 架構,與力積電、智成電子、愛普科技合作,將 CPU 與 DRAM 相關 IP 放在同一顆晶片中。如此一來,MCU 到 DRAM 的資料傳輸,可以從常用的 32 位元大幅提升至 4096 位元,不僅增加資料傳輸頻寬,並且達到低延遲與低耗電效果。甚至,還可以把 Wi-Fi 晶片功能包進去,讓單一晶片可以獲得相當於單晶片電腦所需功能,並能降低晶片耗電量。

而以行車安全最需要的 ADAS(先進駕駛輔助系統,Advanced Driver Assistance Systems)應用為例,若是採用 AIM 技術所開發的單晶片,搭配影像神經網路加速運算程式(Video Neuron Network Accelerator,VNNA),在進行 1080p RGB 影像物件分離處理上,可以達到 10 倍的執行效率,但耗電量卻只要原來的十分之一,可說是非常省電又有 AI 運算效率。同樣的架構與技術可以讓自駕車、無人車、攝影機、影像監控等晶片供應業者採用,協助相關晶片業者開發出具有特定領域的 AI 加速晶片產品。

此外,由於在范紐曼型架構(von Neumann architecture)下,傳統 AI 運算上會碰到的頻頸是資料需要循序處理,不符合 AI 運算情境上其實是要能非循序存取的需求。而力積電的 AI Memory 技術,就可開發出後范紐曼型架構的記憶體處理方式,除了將 CPU 到 DRAM 的頻寬大幅提升,甚至可以在記憶體存取上加入控制電路,以非循序存取的方式高速讀取 DRAM 資料,進而提升 AI 運算執行效率。

最後,黃崇仁還同步介紹由 TwIoTA 所倡議成立的台灣 RISC-V 聯盟(RISC-V Taiwan Alliance,RVTA)與日本業界合作,共同加速 RISC-V 產業發展。並介紹台灣 RISC-V 供應鏈與 IC 設計生產代工服務,也希望日本業者若有 RISC-V 開發需求,可以跟台灣的半導體產業上中下游合作,進而開發更多 5G、AI 與 IoT 應用。

(首圖來源:科技新報攝)