# 0513-02-人工智慧的可解釋性:法律適用與資料治理-黃詩淳副院長 # AI生成重點摘要 ### 一、AI可解釋性議題的背景與重要性 - AI廣泛應用於高風險領域(司法、金融、醫療、公共行政),影響個人權益。 - 使用者信任仰賴理解AI決策邏輯,黑盒模型引發公平性與責任歸屬疑慮。 - 可解釋性(Explainability)成為建立可信AI的核心要件。 --- ### 二、資訊科學中的可解釋性分類與方法 - **Interpretability(解釋性)**:讓人類理解模型輸入與輸出關係。 - **Transparency(透明性)**:揭示模型內部邏輯與架構。 - **Explainability**:上位概念,涵蓋前述兩者。 ### 主要解釋方式: 1. **模型中心(全域)解釋**:說明整體模型架構、設計、訓練資料、關鍵參數等。 2. **主體中心(區域)解釋**:聚焦個案輸入的結果,強調人機互動與個人救濟。 ### 工具與技術舉例: - 分解法(decomposition) - 代理模型(LIME、SHAP) - 顯著圖(saliency map) --- ### 三、法律規範與制度要求 ### GDPR(歐盟個資保護規則) - 第13、14、15、22條:賦予「有意義資訊」與「人類介入」的權利。 - 是否具備「解釋權」具爭議,法律學界見解不一。 ### EU AI Act(歐盟AI法案草案) - 第13條:使用者知情義務。 - 第29條:操作理解要求。 - 第86條:受AI影響者可要求「清楚且具意義的解釋」及決策要素。 - 明確規定「高風險AI系統」需提供模型角色與決策邏輯。 ### 法國《數位共和法》: - 要求行政機關對自動決策提供演算法邏輯與資料來源。 --- ### 四、司法實務案例分析 - **美國Loomis案**:質疑刑事風險評估系統COMPAS的公平性與不透明。 - **德州教師評分案**:法院關注教師是否能查驗評分依據。 - **荷蘭社會安全詐欺預測案**:法院認定缺乏解釋性侵犯隱私與公平原則。 --- ### 五、AI法律應用與模型實作經驗分享 - 利用XGBoost、Decision Tree、Neural Network等演算法分析法院親權判決。 - 模型準確度與可解釋性之間存在權衡(trade-off)。 - Tree-based模型較易解釋但準確度稍低。 - Neural Network準確度高但難以理解內在邏輯。 - 人工標記與特徵選擇對提升法律可解釋性至關重要。 --- ### 六、課程總結與建議 - 可解釋性需結合**模型中心與主體中心**雙重視角,滿足法律與倫理要求。 - 法律責任評估不能僅依靠個案說明,需搭配模型邏輯支持。 - 主張不應要求全面公開程式碼,以免影響商業機密與創新發展。 - 法律人需培養跨領域素養,理解資料與模型設計脈絡。