Sambuc éditeur

littérature & sciences humaines

Actualités Dernières parutions Littérature Arts Encyclopédie Quiz Librairies francophones La maison Contact

Technologie | Le 17 juillet 2023, par Raphaël Deuff. Temps de lecture : sept minutes.


« Humanités numériques »

Intelligence artificielle explicable

Champ de recherche en intelligence artificielle

L’intelligence artificielle explicable (en anglais Explainable Artificial Intelligence, XAI) est un champ de recherche et de réflexion dans le domaine de l’intelligence artificielle (IA), qui concerne la capacité à décrire le fonctionnement des modèles de façon à expliquer leurs prises de décision et les résultats auxquels ils aboutissent. En pleine expansion ces dernières années, l’intelligence artificielle explicable trouve son origine dans les développements récents des méthodes statistiques d’IA, et l’accroissement spectaculaire de la complexité des modèles reposant sur des données d’entraînement.

(Image de l'article n°921 : )
© Sambuc éditeur, 2024

L’intelligence artificielle explicable (XAI), champ émergent et sensible dans le domaine de l’intelligence artificielle (IA), est issue du développement récent de grands modèles d’IA, en particulier à partir des années 2010, via des modèles statistiques qui les rendent difficilement explicables dans leur fonctionnement.

Une partie de l’intelligence artificielle, appelé apprentissage machine ou apprentissage automatique (machine learning), repose sur des modèles statistiques qui visent à faire résoudre un problème à une machine en ajustant son calcul d’après des ensembles de données. Contrairement à des modèles explicites (dits aussi « intelligence artificielle symbolique »), où le comportement de l’algorithme est défini par l’humain, les modèles d’apprentissage statistiques visent ainsi à induire un comportement optimal d’après les données d’entraînement. Dans le cas de problèmes complexes (traitement du langage, de l’image et, plus généralement, tout problème faisant appel à un grand nombre de degrés de liberté), les modèles deviennent plus efficaces avec un très grand nombre de paramètres : de grands modèles statistiques (GPT, LaMDA, réseaux GAN) ont ainsi émergé à partir de la deuxième décennie du xxie siècle, en lien direct avec l’accroissement de la puissance de calcul des ordinateurs. À titre d’exemple, certains réseaux de neurones artificiels comme GPT-3 de la firme OpenAI atteignent plus de trois cents milliards de paramètres, constituant des modèles dits « boîte noire », dont le comportement devient difficilement explicable.

L’explication du fonctionnement de ces modèles – à côté de résultats inédits et très puissants, incomparables avec ceux des modèles développés de façon explicite – se pose alors de façon pressante, à la fois pour les comprendre et les réguler, et faire mieux accepter l’usage de ces nouvelles technologies dans la société.

Ces modèles sont en effet formés grâce à de très grands ensembles de données, et sont en conséquence largement dépendants de la qualité de ces derniers, en particulier sur le plan des biais de représentation : l’usage de grands modèles d’IA tend ainsi à associer les risques de biais humains (par exemple ceux liés aux représentations sociales et aux stéréotypes), et leur renforcement par l’apprentissage automatique. D’un autre côté, l’emploi de modèles d’intelligences artificielles dans des domaines sensibles, comme la médecine ou l’exercice de la citoyenneté, soulève des questions de droit, et suppose de pouvoir expliquer toute décision pouvant avoir une conséquence grave sur un ou plusieurs individus : rendu d’une décision de justice, calcul d’un droit à l’assurance, etc. En Europe, le Règlement général sur la protection des données (RGPD) a fait peser dès 2016 sur les entreprises la responsabilité juridique liée à l’utilisation des données personnelles ; le futur Règlement sur l’intelligence artificielle (AI-Act) prévoit de renforcer cette réglementation en matière d’IA.

Face à la grande complexité des algorithmes issus de l’apprentissage automatique, plusieurs approches se sont développées ces dernières années. En premier lieu, une approche en amont vise à contrôler du mieux qu’il est possible la qualité des données d’entraînement, afin de garantir, sinon l’absence, du moins la marginalité d’erreurs ou de biais liés aux représentations collectives. Cette vérification requiert une collaboration pluridisciplinaire, entre les chercheurs en IA, des spécialistes des différents domaines concernés, et des chercheurs en sciences humaines, de la psychologie à l’anthropologie.

Du point de vue de la conception des modèles proprement dite, l’usage de plusieurs jeux de données d’entraînement pour l’entraînement simultané de modèles similaires est une façon de concilier les modèles résultants en cherchant les points de consolidation ou de réfutation. Des modèles d’analyse peuvent également être employés, afin de chercher à « traduire » le comportement de l’algorithme en termes lisibles. Enfin, les algorithmes eux-mêmes peuvent être utilisés pour révéler des biais de représentation, par leur capacité à souligner les corrélations de jeux de données. En retour, il devient également critique pour les concepteurs de ces logiciels de pouvoir modifier le comportement une fois détecté des biais ou des erreurs, sans remettre en question l’ensemble de leur conception : c’est ce qui forme le champ, voisin, du désapprentissage automatique (machine unlearning).

L’explicabilité de l’intelligence artificielle constitue ainsi un enjeu émergent de cette technologie à la progression rapide, enjeu à la fois sur les plans éthique et juridique. À ce titre, c’est l’attribution de responsabilités claires en matière d’intelligence artificielle qui structurera ce champ de recherche, dont le jeu, économique, politique et sociétal se distribue entre un grand nombre d’acteurs, privés (entreprises conceptrices et clientes, utilisateurs finaux) comme publics (États, institutions, collectivités).


Raphaël Deuff


En savoir plus

Ressource : Problème d’alignement (sambuc.fr)

Ressource : Règlement européen sur l’intelligence artificielle (sambuc.fr)

Ressource : Série d’articles sur l’intelligence artificielle dans l’Encyclopédie Sambuc (sambuc.fr)


Ressource : « Explainable AI », The Royal Society, 28 novembre 2019 (royalsociety.org)

Ressource : Alejandro Barredo Arrieta et al., « Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI », ScienceDirect, juin 2020 (sciencedirect.com)

Ressource : Le projet Antidote ou l'IA explicable (inria.fr)


Entités nommées fréquentes : IA, Règlement, XAI.


L’actualité : derniers articles

« Le Verre, matériau d'exception »

Henry Cros

(Image de l'article n°238 : Image de l'article `Henry Cros`)
Image de l'article `Henry Cros` © Sambuc éditeur, 2024

À la fois sculpteur, peintre, céramiste et maître verrier, Henry Cros est aujourd’hui célèbre pour sa redécouverte de la pâte de verre, une technique de travail verrier qui remonte à l’Égypte antique.

Arts | Le 28 juin 2024, par Sambuc éditeur.

« Chanteurs et cantatrices »

Boris Christoff

(Image de l'article n°962 : Image de l'article `Boris Christoff`)
Image de l'article `Boris Christoff` © Sambuc éditeur, 2024

Boris Christoff (1918-1993) est un chanteur de basse bulgare.

Arts | Le 21 juin 2024, par Sambuc éditeur.

« Chanteurs et cantatrices »

Dietrich Fischer-Dieskau

(Image de l'article n°965 : Image de l'article `Dietrich Fischer-Dieskau`)
Image de l'article `Dietrich Fischer-Dieskau` © Sambuc éditeur, 2024

Dietrich Fischer-Dieskau (1925-2012) est un chanteur baryton de nationalité allemande.

Arts | Le 21 juin 2024, par Sambuc éditeur.

Rechercher un article dans l’encyclopédie...



Inscrivez-vous à la newsletter Sambuc !


Ce site utilise des cookies nécessaires à son bon fonctionnement et des cookies de mesure d’audience. Pour plus d’informations, cliquez ici.

En poursuivant votre navigation, vous consentez à l’utilisation de cookies.

Fermer