參考社群網站方法,美企業採用人工審查方式監督生成式 AI 產品成果

作者 | 發布日期 2023 年 10 月 24 日 8:00 | 分類 AI 人工智慧 , 公司治理 , 網路 line share follow us in feedly line share
參考社群網站方法,美企業採用人工審查方式監督生成式 AI 產品成果


由於生成式 AI 出現突破性發展,許多企業都導入這項技術產生許多新產品或服務,但基於大數據的訓練過程很可能遭有心人士以假資訊污染,一美國稅務軟體公司參考社群網站方式,以人工審查監控。

目前大多社群網站,包括 X、Instagram、Facebook 和 TikTok 等,皆有專責團隊負責審查網站上用戶貼文或廣告是否有違反使用規範,而這種做法對於目前越來越熱門的生成式 AI 產品,也成為企業用來監管 AI 不會產出錯誤或違法的內容。

由於生成式 AI 在訓練過程需要採用大量的網路內容,有心人士很容易訓練期間塞入大量誤導性或錯誤訊息,就有很高機率讓 AI 產出有害內容,為了降低 AI 產品出錯機率,採用人工審查也成為現階段比較有效的因應方式。

以稅務計算軟體著名的美國企業 Intuit 為例,為旗下主力稅額計算軟體 TurboTax 推出生成式 AI 小助手 Intuit Assist,可在用戶透過 TurboTax 規劃和計算個人或企業年度繳稅計畫期間提供各種財務規劃建議。

雖然 Intuit Assist 目前僅為試用階段,僅開放給部分用戶,但這項基於大量語言模型資料訓練而來的生成式 AI 產品,若產出錯誤或有害的建議,讓用戶因此做出違法或是危害用戶利益的決定,對企業會有嚴重影響。

因此 Intuit 資安長泰森(Atticus Tysen)表示,將成立以八名全職人員組成的監督小組,隨時進入 Intuit Assist 的語言模型檢查,降低模型出現錯誤或有害內容的機率。

目前 Intuit Assit 程式已有內建檢測功能,若語言模型出現可能令人反感的內容,或發現有心人士進行指令注入攻擊(Prompt Injection Attack)行為,就會標示出來並通知監督小組,再以人力審查或處置。

除了 Intuit,Open AI 和母公司微軟推出 Azure AI 產品,也是採人工審查,避免語言模型出現有害或錯誤內容,畢竟對生成式 AI 產品來說,若企業無法有效檢測問題,商譽、法律和營收衝擊都無法承受。

(首圖來源:Unsplash