Explicabilité en Intelligence Artificielle ; vers une IA Responsable - Institut du Cerveau et de la Moëlle Epinière Accéder directement au contenu
Article Dans Une Revue Techniques de l'Ingénieur Année : 2022

Explainability in Artificial Intelligence; towards Responsible AI

Explicabilité en Intelligence Artificielle ; vers une IA Responsable

Résumé

Essential for a good adoption, as well as for a wise and unbiased use, explicability is a real technology lock to the evolution of Artificial Intelligence (AI), in particular concerning Machine and Deep Learning. Without an effective explicability of the proposed algorithms, these techniques will remain a black box for health (and not only) professionals, researchers, engineers and technicians - who assume (and will continue to assume) the full responsibility of their actions. Increasingly, engineers and designers of AI tools will have to demonstrate their responsibility by providing algorithms that guarantee the explicability of the proposed models. This article presents the motivations of an explainable AI, the main characteristics of the conceptual landscape of explainability in AI, the major families of explainability methods - with a focus on some of the most common methods, to finally present some of the opportunities, challenges and perspectives of this exciting field of human-machine interaction. Indeed, only through a good understanding of the challenges associated with this technological revolution that we will be able to transform AI into assets for our companies as well as for our human actors, partners and customers.
Essentielle pour une adoption efficace comme pour une utilisation avisée et objective de l'Intelligence Artificielle (IA), l'explicabilité est un véritable verrou de l'évolution de ces technologies, en particulier concernant l'apprentissage automatique et profond. Sans une réelle explicabilité des algorithmes proposés, ces technologies resteront une boîte noire pour les professionnels de santé (et pas seulement), chercheurs, ingénieurs, techniciens - qui assument (et vont continuer à assumer) la pleine responsabilité de leurs actes. De plus en plus, les ingénieurs exploitants et concepteurs d'outils d'IA devront donc faire preuve de responsabilité, en fournissant des algorithmes permettant de garantir l'explicabilité des modèles proposés. Cet article présente les motivations d'une IA explicable, les principales caractéristiques du paysage conceptuel de l'explicabilité en IA, les grandes familles de méthodes pour l'explicabilité - avec un focus sur quelques méthodes parmi les plus courantes, pour finir sur un aperçu des opportunités, challenges et perspectives de ce domaine passionnant de l'interaction homme-machine. En effet, c'est uniquement par une bonne compréhension des challenges associés à cette révolution technologique que nous pourrons la transformer en atout pour nos entreprises ainsi que pour l'ensemble de nos acteurs, partenaires et clients humains.
Fichier sous embargo
Fichier sous embargo
0 10 8
Année Mois Jours
Avant la publication
lundi 24 février 2025
Fichier sous embargo
lundi 24 février 2025
Connectez-vous pour demander l'accès au fichier

Dates et versions

hal-03936135 , version 1 (12-01-2023)

Licence

Copyright (Tous droits réservés)

Identifiants

  • HAL Id : hal-03936135 , version 1

Citer

Daniel Racoceanu, Mehdi Ounissi, Yannick L. Kergosien. Explicabilité en Intelligence Artificielle ; vers une IA Responsable : Instanciation dans le domaine de la santé. Techniques de l'Ingénieur, 2022. ⟨hal-03936135⟩
221 Consultations
26 Téléchargements

Partager

Gmail Facebook X LinkedIn More