---
tags : KR
---
# Explaining inductive derivations with transductive arguments
## Key concept
* de nombreuses approches XAI sont *locales* (i.e. elles cherchent à éclairer une recommandation particulière), *contrefactuelles* (i.e. elles considèrent des mondes alternatifs où la question posée serait "ni tout à fait la même, ni tout à fait une autre")
* de fait, ces approches sont de nature *abductive* (i.e. le processus décisionnel et son issue sont figés, et on cherche à spécifier les intrants - le candidat)
* par construction, une approche abductive fige le processus décisionnel, et ne permet pas sa remise en question
> Exemple typique : explications fondées sur les impliquants premiers (Marquis 2020, Darwiche ??, Marques-Silva 2020) - on identifie un sous ensemble minimal d'attributs du candidat tel que toute complétion conduise à la même recommandation
* Or, si on est amené à expliquer une recommandation, c'est qu'on postule la possibilité de la contester. Cette contestation peut porter sur les *causes premières* mises en avant par le dispositif explicatif, mais aussi, peut-être, sur les *règles de dérivation* qui permettent de relier les causes aux effets
Une autre voie est possible !
* **Focalisation sur les preuves plutôt que les causes :** Plutôt que de se focaliser sur les *causes*, on se focalise sur les *preuves*, i.e. le DAG/l'arbre permettant de déduire la recommandation concernant ce candidat.
* **Règles déductives :** Les noeuds sans prédécesseur de ce graphe sont des *faits*, que l'on peut considérer comme premiers, causaux. Les noeuds intermédiaires de ce graphe (qui ont un degré sortant égal à un) correspondent à des *règles déductives*.
### Modélisation du raisonnement sur les préférences
* **Ce que l'on ne s'autorise pas à faire :** Révéler les poids du modèle et faire de la comptabilité, parce que :
- ces poids peuvent légitimement paraître arbitraires (et ils le sont : ce ne sont pas réellement des causes premières - comment ont-ils été obtenus ?)
- la façon d'utiliser ces poids peut paraître arbitraire (mais pourquoi effectuer une somme pondérée ?)
- les calculs sont fastidieux
- cela revient à révéler le modèle qu'on pourrait vouloir garder latent
* **Raisonnement transductif :** Sur quoi s'autorise-t-on à raisonner explicitement ? Dans notre cas, on cherche à expliquer des préférences relatives (i.e. nos *candidats* sont des paires d'alternatives dans une relation binaire $\mathcal R_{\omega_0}$) : chaque entrée ou sortie de nos règles est une comparaison entre deux alternatives.
* **Fidélité au modèle :** On construit soigneusement ces règles déductives de manière à ce qu'elle soient *correctes* vis à vis de toutes les relations $\mathcal R_\omega, \omega\in\Omega$
* **Ouverture sur le raisonnement non-monotone :** Afin de permettre, ultérieurement, la remise en question le bien-fondé des règles de dérivation ou de leur application, nous recourrons au formalisme des *schémas d'arguments*. On pourra y ajouter des *questions critiques* !
* **Elégance et simplicité :** Il faut garder présent à l'esprit que les preuves que nous construisons sont destinées à être lues par des humains, et il convient donc de prendre en compte leurs biais cognitifs.
* **Idempotence :** On synthétise le raisonnement sous forme de schemas "rateau", où on passe directement des prémisses, qui sont des vérités premières, à la conclusion, qui est l'explanandum. Cela allège la présentation et simplifie la résolution du problème inverse (pb de plannification (action $\equiv$ schéma) $\to$ pb de recherche d'antécédent de l'explanandum par le schéma considéré)
### Suite du papier
* mise en oeuvre (= construction des schémas d'arguments) pour le modèle à somme pondérée
* éléments de réponse aux questions de complétude et de calculabilité
* ouvertures : autres questions, NMR (établir quelques questions critiques ?), autres modèles...