# Last mile explanations for the additive model ## Comparison with other approaches **Question:** So what would be a PI-explanation/sufficient reasons in our context? Reminder: sufficient reasons justifying the classification, irrespective of the value of other criteria. Let us for instance the first example of the paper $s_1 = cdefg \succ ad = s_2$, giving vector $(-1,0,+1,0,+1,+1,+1)$. We get two explanations by means of sufficient reasons (easy to compute, cf. Marques-Silva et al.): * $cef$ are satisfied by $s_1$ but not by $s_2$, given that $bd$ are equal, is a sufficient reasons (ie. given that $bd$ are equal, $cef$ is actually preferred to $ag$). Note that for instance $ceg$ would not be a sufficient reason. * $cefg$ are satisfied by $s_1$ but not by $s_2$, given that $b$ is equal, is a sufficient reason (ie. given that $b$ is equal, $cefg$ is preferred to $ad$) ## How much information is revealed **Question :** dans quelle mesure le fait de n'avoir recours qu'à des arguments vagues permet de ne pas divulguer trop d'informations concernant la procédure de décision ? Il s'agit donc, pour une recommandation $A \succ B$ non triviale (i.e. pour laquelle $Cons(A,B) \ne \emptyset$), de réaliser une comparaison *honnête* entre : * d'une part, l'information $I_{exp}$ divulguée en employant un des schémas d'argument, sachant que l'on emploie un modèle additif latent - si l'explication s'appuie sur les arguments $(a_1 \succ b_1), \dots , (a_k,b_k)$, il s'agit de la relation nécessaire compte tenu de cette PI ; et * d'autre part, l'information $I_{naïve}$ divulguée par la procédure naïve consistant à révéler les valeurs des poids $\omega_i$ pour $i\in Pros(A,B) \cup Cons(A,B)$ On peut mesurer l'information par la probabilité de savoir répondre à une requête $C ? D$ non-triviale (i.e. dont on ne connaît pas la réponse à l'avance, soit parce que $Cons(C,D) = \emptyset$, $Pros(C,D) = \emptyset$, ou $C=A \land D=B$), en supposant par exemple une distribution uniforme des alternatives. Sous l'hypothèse III, $I_{exp} \subseteq I_{naïve}$ et un indicateur pertinent consiste à évaluer la proportion de paires nécessaires selon PI parmi les paires non triviales d'alternatives de $\{0,1\}^{Pros(A,B)\cup Cons(A,B)}$ ## Remarques 1. On peux envisager un modèle alternatif de ce qui peut être déduit par notre adversaire (plus favorable pour nous) : remplacer la déduction sachant un modèle additif par la déduction syntaxique liée au schéma d'argument 2. On peut envisager de ne pas regarder l'information révélée par l'explication d'une paire, mais la totalité de l'information portée par les atomes du langage, correspondant à l'information que pourrait recueillir un adversaire doté de mémoire qui aurait accès à toutes les explications. Cette piste nous serait beaucoup moins favorable, et risquerait de mettre en évidence le fait qu'un facteur important nous permettant de divulguer moins d'information, c'est le fait de tolérer de rester indécisif (parce qu'il reste des paires incomparables selon notre façon de raisonner, alors que le modèle de somme pondérée produit un préordre total) 3. La propriété III (triple eye = Independance to Irrelevant Items, le fait de ne pas utiliser pour expliquer que $A \succ B$ d'argument mentionnant un critère $i$ tel que $A_i = B_i$) apparait ici comme une garantie de ne jamais divulguer d'information qui ne serait pas divulguée en suivant l'approche naïve 5. Lorsque l'explication est courte, on s'attend à ce que la relation nécessaire soit quasi vide. S'en assurer exige beaucoup de calculs. 3. Que faire lorsqu'on peut fournir plusieurs explications ? Jusqu'à présent, nous nous sommes focalisées sur la production d'explications *courtes*, mais on pourrait chercher à minimiser l'information divulguée. 8. Certainement d'autres trucs que j'ai oublié, et d'autres auxquels on n'a pas encore pensé 9. Attention de ne pas y consacrer trop de temps ni d'énergie ! <!-- On peut vouloir présenter l'indicateur $\mathbb P(x\in \mathcal N_{\langle arguments \rangle} | x) * Piste 1 : pour justifier une décision isolée ($A \succsim B$) à l'aide d'un schéma explicatif, on peut comparer ce qu'un observateur serait en mesure de déduire à partir des arguments mis en avant par rapport à ce qu'il aurait été en mesure de déduire d'une explication fondée sur la révélation des poids du modèle > * ce qu'on peut déduire des arguments avancés $(a_1 \succ b_1), ... (a_k \succ b_k)$: $\mathcal N_{(a_1 \succ b_1) \dots (a_k \succ b_k)}$ > que l'on peut calculer en énumérant les paires d'alternatives $(x,y)$ (il y en a $2^{n-1}\times(2^n -1)$) et en résolvant à chaque fois un PL avec pour objectif $V(x)-V(y)$ et pour contraintes $V(a_j) \ge V(b_j)$. On peut aussi faire de l'échantillonnage (?) > * ce qu'on peut déduire d'une explication fondée sur la révélation des poids du modèle : tout, si l'explication est très naïve, un peu moins, si on se restreint au sous ensemble des critères pour lesquels les alternatives diffèrent (cette remarque vaut aussi pour le calcul de la relation nécessaire) > * tiens, voilà une nouvelle raison de s'intéresser à III (independance to irrelevant items): c'est une garantie de ne pas révéler des informations qu'on garde cachées en utilisant une explication fondée sur la révélation des poids > * on peut peut-être regarder l'aspect ComCom, parce que révéler des poids semble exiger plus de bits que $k$ messages "1 critère vs m" * Piste 2 : raisonner asymptotiquement - on peut imaginer qu'afin de répondre à de multiples requêtes, le décideur-expliquant finisse par révéler l'ensemble des atomes du langage compatibles avec le jeu de poids latent. Il me semble qu'on retombe sur des choses déjà calculées (brutalement !) par Manuel. On se rend compte que cette approche est à double tranchant : *ce qu'on parvient à cacher est un sous-ensemble de ce qu'on ne sera jamais en mesure d'expliquer* -->