# 5.1 重點摘要 # Chapter 5 Model-Agnostic Methods 1. 導讀-為什麼需要解釋型AI * model-agnostic interpration:將機器學習模型與解釋分開 * model flexibility:和不同的機器學習模型一起使用 * explaination flexibility解釋方法彈性:linear formula,graphic with feature importances… * representataion flexibility: 用來解釋的特徵表示形式是有彈性的 * new layer between human and black box model # 5.1 Partial Dependenc Plot (PDP) * Partial_dependence 類似於統計中的邊際效應,就是在控制其他變量不變的情況下,改變target feature的值,來看模型的fit結果如何變化 * 能夠展現出一或兩個feature對模型預測结果影響的函数關係:近似線性、單調關係或者更複雜的關係。 * 給定任意模型,定義一個部分依賴函数: X_s表示感興趣的features,X_c表示所有其他features。通過對X_c進行積分,得到一個只依賴於X_s的函数f(X_s)。該函数即为部分依賴函数,它能夠實現對單一變量X_s的解釋。 * 舉凡所有具有隨機效應的過程,均可能以蒙地卡羅方法大量模擬單一事件,藉統計上平均值獲得某設定條件下實際最可能測量值 * 補充說明 - 有data及code可參考 https://medium.com/sherry-ai/xai-%E5%A6%82%E4%BD%95%E5%B0%8D%E9%9B%86%E6%88%90%E6%A8%B9%E9%80%B2%E8%A1%8C%E8%A7%A3%E9%87%8B-dd2aa0b58a19 * 注意事項 -- 當資料量不足會對特定區域過度解釋 -- 假設因子彼此不相依 -- heterogeneous effect https://towardsdatascience.com/introducing-pdpbox-2aa820afd312 https://zhuanlan.zhihu.com/p/90217007 * 優點 -- 直觀好理解、好解釋 -- 簡單:取平均數計算 -- 因果關係 * 缺點: -- 特徵值最多2個 -- 容易忽略特徵值分佈 -- 必需假設特徵值彼此間獨立 -- 平均數抵銷了正負相關性 > 經驗補充:平均數會受極值影響,看中位數是另外一個選擇 ###### tags: `重點摘要`