IA explicable (XAI)
L'IA explicable ou XAI (eXplainable Artificial Intelligence) est une forme d'intelligence artificielle prévue pour décrire son objet, sa logique et sa prise de décision de manière intelligible à une personne lambda. Souvent évoquée de pair avec l'apprentissage profond ou « deep learning », elle joue un rôle primordial dans le modèle d'apprentissage automatique non discriminatoire, redevable et transparent dit FAT ML (Fairness, Accountability and Transparency in Machine Learning).
La XAI renseigne globalement sur la prise de décision d'un programme d'intelligence artificielle en en dévoilant :
- Les points forts et les faiblesses
- Les critères précis retenus pour arriver à une décision
- Les motifs qui l'ont conduit à telle décision plutôt qu'aux autres
- Le niveau de confiance approprié selon les différents types de décision
- Les types d'erreur qu'il est susceptible de commettre
- La façon de corriger les erreurs
Un des grands objectifs de la XAI est la redevabilité / responsabilité algorithmique. Jusqu'à maintenant, les systèmes d'IA ont été par essence des boîtes noires. Si on en connaît les données en entrée et en sortie, les algorithmes qui mènent à une décision sont généralement propriétaires ou peu intelligibles, même quand les mécanismes de logique internes sont accessibles gratuitement en open source.
Étant donné que l'intelligence artificielle est de plus en plus répandue, il est plus que jamais important de savoir comment traiter les distorsions et la question de la confiance. Notons par exemple qu'une des clauses du règlement général sur la protection des données (RGPD) de l'UE instaure le droit à l'explication.