--- tags : KR --- # Explaining inductive derivations with transductive arguments ## Key concept * de nombreuses approches XAI sont *locales* (i.e. elles cherchent à éclairer une recommandation particulière), *contrefactuelles* (i.e. elles considèrent des mondes alternatifs où la question posée serait "ni tout à fait la même, ni tout à fait une autre") * de fait, ces approches sont de nature *abductive* (i.e. le processus décisionnel et son issue sont figés, et on cherche à spécifier les intrants - le candidat) * par construction, une approche abductive fige le processus décisionnel, et ne permet pas sa remise en question > Exemple typique : explications fondées sur les impliquants premiers (Marquis 2020, Darwiche ??, Marques-Silva 2020) - on identifie un sous ensemble minimal d'attributs du candidat tel que toute complétion conduise à la même recommandation * Or, si on est amené à expliquer une recommandation, c'est qu'on postule la possibilité de la contester. Cette contestation peut porter sur les *causes premières* mises en avant par le dispositif explicatif, mais aussi, peut-être, sur les *règles de dérivation* qui permettent de relier les causes aux effets Une autre voie est possible ! * **Focalisation sur les preuves plutôt que les causes :** Plutôt que de se focaliser sur les *causes*, on se focalise sur les *preuves*, i.e. le DAG/l'arbre permettant de déduire la recommandation concernant ce candidat. * **Règles déductives :** Les noeuds sans prédécesseur de ce graphe sont des *faits*, que l'on peut considérer comme premiers, causaux. Les noeuds intermédiaires de ce graphe (qui ont un degré sortant égal à un) correspondent à des *règles déductives*. ### Modélisation du raisonnement sur les préférences * **Ce que l'on ne s'autorise pas à faire :** Révéler les poids du modèle et faire de la comptabilité, parce que : - ces poids peuvent légitimement paraître arbitraires (et ils le sont : ce ne sont pas réellement des causes premières - comment ont-ils été obtenus ?) - la façon d'utiliser ces poids peut paraître arbitraire (mais pourquoi effectuer une somme pondérée ?) - les calculs sont fastidieux - cela revient à révéler le modèle qu'on pourrait vouloir garder latent * **Raisonnement transductif :** Sur quoi s'autorise-t-on à raisonner explicitement ? Dans notre cas, on cherche à expliquer des préférences relatives (i.e. nos *candidats* sont des paires d'alternatives dans une relation binaire $\mathcal R_{\omega_0}$) : chaque entrée ou sortie de nos règles est une comparaison entre deux alternatives. * **Fidélité au modèle :** On construit soigneusement ces règles déductives de manière à ce qu'elle soient *correctes* vis à vis de toutes les relations $\mathcal R_\omega, \omega\in\Omega$ * **Ouverture sur le raisonnement non-monotone :** Afin de permettre, ultérieurement, la remise en question le bien-fondé des règles de dérivation ou de leur application, nous recourrons au formalisme des *schémas d'arguments*. On pourra y ajouter des *questions critiques* ! * **Elégance et simplicité :** Il faut garder présent à l'esprit que les preuves que nous construisons sont destinées à être lues par des humains, et il convient donc de prendre en compte leurs biais cognitifs. * **Idempotence :** On synthétise le raisonnement sous forme de schemas "rateau", où on passe directement des prémisses, qui sont des vérités premières, à la conclusion, qui est l'explanandum. Cela allège la présentation et simplifie la résolution du problème inverse (pb de plannification (action $\equiv$ schéma) $\to$ pb de recherche d'antécédent de l'explanandum par le schéma considéré) ### Suite du papier * mise en oeuvre (= construction des schémas d'arguments) pour le modèle à somme pondérée * éléments de réponse aux questions de complétude et de calculabilité * ouvertures : autres questions, NMR (établir quelques questions critiques ?), autres modèles...