金融業導入AI應用的風險評估、治理與問責機制
- 觀看人數: 2098
- 2025-10-09

主 題:金融業導入AI應用的風險評估、治理與問責機制
型 式:實體座談會
子題1:金融業導入AI應用的風險評估關鍵要素
與談人:張智淵|KPMG安侯建業顧問部 副總
子題2:金融 AI應用的治理與問責機制
與談人:熊全迪|理律法律事務所 合夥律師

KPMG張智淵副總首先揭示了人工智慧在全球的應用熱潮,指出全球近八成的執行長對經濟成長充滿信心,並有三分之二的CEO計劃在未來三年持續投資AI 。然而,在台灣金融服務業中,整體AI應用程度仍偏低,有高達43%的機構僅應用於少數部門 。金融業導入AI的主要動機是提升企業內部行政流程效率(50%)及因應市場客戶需求(43%) 。導入AI最顯著的三大營運好處依序為增強數據分析能力(48%)、日常營運流程自動化(45%)與降低營運及人力成本(41%) 。
儘管益處良多,但推動AI面臨的三大挑戰首要是人才不足(43%),其次是法遵、長期合約與稽核限制(36%),以及風險難以評估(36%) 。為應對這些風險,金管會推動「金融業運用人工智慧(AI)指引」,確立六大核心原則,涵蓋治理與問責機制、公平性、隱私保護、系統穩健性與安全性、透明性與可解釋性,以及永續發展 。報告強調,金融機構應採取漸進式策略,從內部行政作業(27%)和智能客服(19%)開始試行,未來朝向AI代理人等高階應用邁進 。金融機構必須將風險評估聚焦於建立AI信任(Trust)、確保AI價值(Value)和促進AI發展(Develop)這三個關鍵因素 。其中,建立AI信任的關鍵,在於將負責任AI(Responsible AI)框架融入整個AI生命週期,並確保角色及權責與AI模型開發流程(從系統規劃、資料蒐集到系統部署與監控)緊密貼合,以實現可信賴的數位金融未來 。

理律法律事務所熊全迪合夥律師,分享了在探討人工智慧在金融領域應用時,與現行法律規範及倫理原則的交錯與挑戰。在法律方面,AI的發展涉及個資保護與隱私、歧視與偏見(如亞馬遜招募演算法的性別不平等案例)以及著作權侵權風險(特別是生成式AI產生的內容歸屬問題)。此外,AI自動化決策帶來的問責難題,例如自駕車事故責任歸屬,凸顯出傳統法律體系在面對「非人類」決策時的不足。為此,台灣主管機關積極制定規範,包括金管會發布的「金融業運用人工智慧(AI)指引」,確立了治理與問責機制、公平性、透明性與可解釋性等六大核心原則。銀行公會也配合推出「金融機構運用人工智慧技術作業規範」,要求金融機構應設立高階主管或委員會負責監督,並對風險較高的AI系統,建議引入獨立第三人進行評估。簡報強調,金融機構在導入AI時,不僅要遵循法規,更要在組織內部建立起清晰的治理架構、角色職責與分層管理,確保對AI系統的內外部責任,並對第三方業者提供之AI服務採取適當的監督與風險管理,以建構可信賴的AI應用環境。
登入/註冊