Sambuc éditeur

littérature & sciences humaines

Actualités Dernières parutions Littérature Arts Encyclopédie Quiz Librairies francophones La maison Contact

Technologie | Le 21 octobre 2021, par Sambuc éditeur. Format : brève (1 feuillet).


« Humanités numériques »

Problème d’alignement

Intelligence artificielle

Dans le domaine de l’intelligence artificielle, le problème dit « d’alignement » (alignment problem) désigne l’ensemble des questions techniques et éthiques soulevées par le rapport d’un programme d’intelligence artificielle, et de ses résultats, avec les valeurs, les attentes et les préférences humaines. Il s’agit notamment, pour le développeur, de s’assurer que le programme conçu agit et produit des résultats conformes à ce qu’attendrait un être humain sur des tâches similaires. La notion a été popularisée par le chercheur américain Brian Christian, et connaît un regain d’intérêt avec le développement des grands modèles d’intelligence artificielle.

© Sambuc éditeur, 2026

Le problème d’alignement représente, dans une certaine mesure, un paradoxe : les mathématiciens ont en effet, dès les débuts de cette discipline au milieu du xxe siècle, cherché à construire l’intelligence artificielle « à l’image de l’homme ». Or cet enjeu s’est révélé extrêmement complexe, comme l’ont révélé, dans le domaine du langage, les débuts de la traduction automatique dans les années 1980.

Aujourd’hui encore, le problème d’alignement se pose de façon insistante, en particulier pour les entreprises qui se proposent de développer des intelligences artificielles dites « générales » ou « fortes », impliquées dans des tâches complexes comme la conduite de véhicules autonomes, ou ayant une porté éthique, comme dans la génération en langage naturel (enjeux de désinformation ou fake news, notamment). De nombreuses approches existent – suivi évolutif, modèles antagonistes – qui cherchent à limiter la divergence qui apparaît entre la spécification conçue par l’équipe de développement, et le comportement émergent du modèle développé. Une des approches les plus utilisées aujourd’hui est celle de l’apprentissage par renforcement, qui consiste, dans les cas où cela est praticable, à faire évaluer par un humain les résultats du modèle d’intelligence artificielle, de façon à le corriger par une sorte de « système de récompense » au fil d’une succession d’essais et d’erreurs.

De façon plus générale, le problème d’alignement se rapporte à la question du contrôle, de la compréhension et de la prévision des comportements de l’intelligence artificielle, impliquant aussi bien des solutions d’ingénierie que des questions éthiques.


Sambuc éditeur


En savoir plus

Volodymyr Mnih, Koray Kavukcuoglu, et al., « Human-level control through deep reinforcement learning », Nature, vol. 518, p. 529–533 (2015).

Md Sultan Al Nahian, Spencer Frazier, Brent Harrison et Mark Riedl, « Training Value-Aligned Reinforcement Learning Agents Using a Normative Prior », arXiv, publication soumise le 19 avril 2021 (arxiv.org).


Ressource : Santé, sécurité, liberté : où est la priorité ? – France Culture (radiofrance.fr).

Ressource : Isaac Asimov, I, Robot, Boston, Gnome Press, 1950. Premier volume de la suite Robot series (Le Cycle des robots), 1940-1995.

Ressource : Brian Christian, The Alignment Problem: Machine Learning and Human Values, New York, W. W. Norton, 2020.

Ressource : Brian Christian et Tom Griffiths, Algorithms to Live By, New York, Henry Holt, 2016 ; éd. française : Penser en algorithmes, Lausanne, Presses Polytechniques et Universitaires Romandes, 2019.

Ressource : Cathy O’Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, New York, Crown, 2016 ; éd. française : Algorithmes : la bombe à retardement, Paris, Les Arènes, 2018.


Entités nommées fréquentes : Brian Christian, New York.


L’actualité : derniers articles

« Humanités numériques »

« Tu vaux mieux que ça, Scott » : au nom de la performance, un agent autonome rédige un pamphlet

Image de l'article `« Tu vaux mieux que ça, Scott » : au nom de la performance, un agent autonome rédige un pamphlet`
Image de l'article `« Tu vaux mieux que ça, Scott » : au nom de la performance, un agent autonome rédige un pamphlet` © Sambuc éditeur, 2026

En février 2026, un agent IA autonome a publié un article à charge contre Scott Shambaugh, mainteneur bénévole de Matplotlib, après que celui-ci eut refusé sa contribution de code. Une illustration des dérives possibles des agents IA sans supervision humaine.

Technologie | Le 25 février 2026, par Raphaël Deuff.

« Cinéphilie(s) »

« Je suis assez matérialiste en art » : François Bégaudeau, ou comment devenir bon spectateur

Image de l'article `« Je suis assez matérialiste en art » : François Bégaudeau, ou comment devenir bon spectateur`
Image de l'article `« Je suis assez matérialiste en art » : François Bégaudeau, ou comment devenir bon spectateur` © Sambuc éditeur, 2026

Qu’est-ce qui façonne un regard de spectateur ? Dans le cadre de sa série « Cinéphilie(s) », proposée ces mois-ci sur l’encyclopédie Sambuc, l’autrice Karine Josse donne la parole à l’écrivain François Bégaudeau.

Arts | Le 23 février 2026, par Karine Josse.

« Journal culturel »

Anniversaire de Carl Westman, architecte suédois

Image de l'article `Anniversaire de Carl Westman, architecte suédois`
Image de l'article `Anniversaire de Carl Westman, architecte suédois` © Sambuc éditeur, 2026

Suède et Allemagne : à l’occasion de leurs anniversaires, découvrez deux architectes des xixe-xxe siècles.

Arts | Le 20 février 2026, par Sambuc éditeur.

Rechercher un article dans l’encyclopédie...



Inscrivez-vous à la newsletter Sambuc !


Ce site utilise des cookies nécessaires à son bon fonctionnement et des cookies de mesure d’audience. Pour plus d’informations, cliquez ici.

En poursuivant votre navigation, vous consentez à l’utilisation de cookies.

Fermer