生成式 AI 帶來的數位創新力量和經濟潛力不可否認。根據 KPMG 近期在美國對 200 位商業領袖的調查,生成式 AI 被評為最頂尖的新興技術。

調查受訪者預期組織在未來 12 至 18 個月內將會受到生成式AI 帶來的極大影響。80% 的受訪對象相信生成式 AI 將會顛覆他們的行業,93% 的受訪對象則認為將為業務帶來增值。

然而,涉及生成式AI的風險同樣重大:偏見或不準確性、錯誤和錯誤訊息、個人數據的隱私問題、網路安全、法律與版權和智慧財產權問題、責任、透明度。這對組織來說,創新所伴隨的新風險,雖然前所未見但更是不可不防。

盤點治理 AI 模型 8 大考量重點

 

一、制定全面的治理模式,包括安全和隱私

隨著組織採用生成式AI,開發出一個強大的治理框架以解決數據完整性、可靠性和安全等關鍵問題至關重要。由於 AI 經常涉及分析和處理大量敏感數據,包括個人和財務資訊,組織實施強健的安全措施以保護這些數據免遭竊取或濫用非常重要。此外,隨著隱私問題日益成為消費者和監管機構的關注點,未能充分保護客戶隱私的企業可能會面臨到法律和聲譽問題。在 AI 治理框架內實施安全和隱私措施可以幫助組織遵守法規,保護客戶的數據和隱私。

 

二、考慮風險分層的治理策略

並非所有的治理模型都適用於每種情況。原來為了應對傳統風險而建立的模型或框架,可能不太適用於各組織面臨的生成式 AI 風險。組織需要開發或更新模型,讓它更符合組織對風險的接受度,並針對具體的 AI 使用情境,確定治理原則以及如何實施。比如說,AI 編輯工具可能就不需要像金融風險模型那樣有著嚴格的風險評估。

 

三、制定並宣布公司的 AI 宣言

制定 AI 宣言必須與公司的核心原則保持一致,它闡述了公司對於 AI 的倫理願景,為負責任且值得信賴地使用生成式 AI 奠定了基礎。

 

四、重新思考 AI 導入流程

談到生成式 AI 的導入,應該包括新 AI 模型在開發和實施前是如何被考慮、審查和批准的。這是一個重要的步驟,因為生成式 AI 可能帶來新的風險,比如第三方訪問機密數據、智慧財產風險或責任問題,這些在目前的導入流程中往往沒有被考慮到。

 

五、重新評估第三方合作風險與合約

重新檢查企業已經簽訂的合約,以及提供給第三方產品的合約,檢查有無合約上的漏洞或者使用這些新 AI 功能可能帶來的風險。接著,對照一下供應商制定的 AI 原則和企業內部自有的版本,確保兩者在負責任和安全使用 AI 上的原則是一致的。

 

六、調整現有的 AI 政策

企業應該檢查和調整他們針對生成式 AI 模型的決策,確保這些政策適合並且適用於生成式 AI 的實施,包括但不限於檢查內部政策對使用生成式 AI 的影響,以及評估 AI 對組織各個環節,比如營運、人力資源和法律等影響。

 

七、在整個 AI 生命周期中實施管理風險

在 AI 的整個生命周期內實施適合的保護措施和控制來管理風險。這些保護措施包括但不限於持續監控模型。

 

八、邀請來自不同背景的領袖參與

在企業的 AI 指導委員會中,邀請來自不同領域的參與者非常重要。例如,要考慮到人資(HR)、法務和合規,還有財務和資訊科技(IT)等不同團體。一個有著充分背景的指導委員會,透過舉辦培訓和教育計畫等方式,可以幫忙確保所有的觀點都被包含在裡頭,並且在最終的模型中考慮到所有的風險。

原文資料來源:KPMG Governing AI Responsibility

Wayne Lai

數位長, 顧問服務部執行副總經理

KPMG in Taiwan

Email