# 提問專區 ## 6.1 Counterfactual Explanations * Manhattan distance的計算? (Hsin) ## 5.9 Shapley Values * Chernoff bounds如何用來決定iteration次數 (Hsin) ## 5.6 Global Surrogate * 實作上如何讓代理模型的預測結果一直逼近複雜的模型?抽不同的資料?(仙琪) * 選擇哪種代理模型有大原則嗎(仙琪) ## 5.5 Permutation Feature Importance * 5.5.3 error increase為什麼要用1-AUC來計算(菀瑩) * 與tree base model計算出來的importance差異(菀瑩) ## 5.4 Feature Interaction * Python是否有套件可以做?(Hsin) * demo 5.4.3的計算(Hsin) * 雖然作者說很難講判定H-statistic多高才算strong interation,但是否能提供其他資料給一個範圍?(Hsin) ## 5.3 Acuumulated Local Effects (ALE) * 請提供一個ALE計算的實例(Hsin) * 說明為何ALE for two features estimate the second-order effect?(Hsin) * 能否講解ALE for categorical features的細節?(Hsin) * 不太明白M-plot v.s. conditiontal distribution 計算上的差異(仙) * 而M-plot: mix the effect of a feature with the effects of all correlated features.是什麼意思? * ALE 與 M-plot的差異 * 判斷categorical variables的similarity的確切做法?(Hsin) ## 5.2 Individual Conditional Expectation (ICE) * Centered ICE Plot與PDP的差異(菀瑩) * Derivative ICE Plot 雖然要畫很久且不實際,但要怎麼畫?(菀瑩) * Centered ICE Plot的anchor point要怎麼選取?(品瑜) * 延伸詢問為什麼要取最小值當錨點?(仙琪) * 不太理解為什麼有了這個錨點所有的instance就比較具有可比較性?(仙琪) * 可否舉個實例說明d-ICE?(J) * 實務上當模型產出後,可以怎麼決定PDP & ICE的使用時機或者兩者有先後順序嗎(仙琪) * PDP & ICE都需要滿足Feature間要獨立的假設,但目前從產出的圖形中我們能夠判斷所選的feature是否與其他features獨立嗎? ## 5.1 Partial Dependence Plot (PDP) * 能不能用簡單例子說明PDP的運算邏輯?(Hsin) * Figure 5.5提醒下結論要注意可能是correlation, not a causal,該怎麼判斷?(Hsin) -->因果關係可參考「granger」檢定方法 * 判斷變數相關的方法 (文章提到解讀PDP的前提是假設變數之間獨立) 若明確變數相依,處理方法為何? (羽) -->可待5.3章節 ALE * 兩個最大的缺點該怎麼處理呢?(Julie) * maximum number of features in a partial dependence function is two * the feature(s) for which the partial dependence is computed are not correlated with other features. * 以線性迴歸為例,PDP和迴歸係數的差異在哪裡?(品瑜) -->解釋方式雷同,但底層計算方式不一樣 * PDP可以應用在任何模型嗎?或是有其限制?(品瑜) -->可以,僅有模型變數獨立性之前提假設 ###### tags: `提問`
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up