隨著生成式 AI 技術的快速發展,AI 語言模型已成為全球科技創新的核心之一,並被廣泛應用於文本生成、語音識別、智慧客服、數據分析等領域,工研院分析,受惠 AI 浪潮推動,百工百業無不積極引入 AI 來提升競爭力,而語言模型檢測就成科技創新關鍵。
生成式 AI 應用不僅能提升單一產品的價值,更能促進供應鏈效率最佳化,像是精準預測市場需求、提升客戶服務體驗等,然而 AI 在各行各業開始深入應用,其語言模型的準確性、穩定性和資安性,成為不可忽視的關鍵。
倘若模型生成內容缺乏準確性或對隱私數據保護不足,可能導致誤導性決策或品牌信譽受損,對整體供應鏈運行造成影響,因此語言模型的可信任性檢測成為關鍵,目前各國對語言模型的可信任性要求越發嚴格,如歐盟推動的《人工智慧法規》將生成式 AI 列為高風險技術,要求所有生成式 AI 模型需符合透明性、公平性與隱私保護等標準。
美國國家標準技術研究院(NIST)制定一套 AI 風險管理框架,強調模型的可靠性與數據處理的安全性,而根據 Gartner 在 2024 年的報告指出,超過 60% 的企業認為生成式 AI 的主要挑戰在於模型的準確性與偏見問題,尤其是涉及醫療診斷、法律分析等高風險應用,錯誤的模型輸出可能造成不可挽回的損害。
在此背景之下,語言模型的可信任性檢測非常重要,檢測的重點主要集中在幾個關鍵,例如準確性、公平性、隱私保護和資安性,其中準確性測試是指確保模型生成的內容無誤,並符合語意需求。
至於公平性測試則關注模型是否避免引入性別、種族或文化偏見,確保應用符合道德與社會價值;隱私保護與資安性檢測也尤為重要,特別是在生成式 AI 需處理大量用戶數據的情況,模型需經過嚴格的檢測,以確保不會生成未經授權的數據或洩露機密資訊。
面對生成式 AI 應用的挑戰,工研院成立台灣首座專注 AI 語言模型檢測的測試實驗室,參考國際可信賴AI的相關框架及標準,透過 AI 產品與系統評測中心(Artificial Intelligence Evaluation Center;AIEC),協助國內廠商評估及改善語言模型,助攻台灣在全球 AI 技術中站穩腳步。
(首圖來源:AI 生成)