Sambuc éditeur

littérature & sciences humaines

Actualités Dernières parutions Littérature Arts Encyclopédie Quiz Librairies francophones La maison Contact

Technologie | Le 2 avril 2025, par Sambuc éditeur. Temps de lecture : huit minutes.


Données ouvertes : OpenAI annonce la publication partielle de l’architecture de son nouveau modèle d’IA

Intelligence artificielle et modèles ouverts

OpenAI, par l’intermédiaire de son PDG Sam Altman, a annoncé la publication prochaine des paramètres de pondération d’un nouveau modèle d’intelligence artificielle générative, marquant un changement d’approche important pour l’entreprise qui avait jusqu’ici maintenu ses méthodes secrètes. OpenAI rejoint là d’autres acteurs importants du secteur qui ont opté pour l’ouverture des grand modèles de langage (Large Language Model, LLM), un pari qui s’est révélé gagnant en permettant d’accélérer l’amélioration des modèles par la contribution collective.

Image d'apr. Levart Photographer / unsplash
Image d'apr. Levart Photographer / unsplash © Sambuc éditeur, 2025

Le 31 mars 2025, Sam Altman, patron d’OpenAI, a annoncé que l’entreprise prévoit de dévoiler une partie de l’architecture d’un nouveau modèle d’intelligence artificielle générative, dans la lignée de son robot conversationnel ChatGPT. Cette décision marque un tournant stratégique majeur après des années durant lesquelles la start-up a gardé confidentiels ses programmes et méthodes.

Concrètement, OpenAI va proposer en accès libre les paramètres de pondération, ou poids, du modèle de langage (on parle en anglais d’open weight). Ces paramètres définissent comment un modèle fonctionne lors de sa prédiction. Il convient toutefois de distinguer cette approche de l’« open source », qui donnerait accès au code de programmation du modèle lui-même. L’accès aux paramètres de pondération est plus limité et ne permet pas de comprendre la construction fondamentale de l’interface d’IA.

Cette publication partielle représente néanmoins un avantage significatif pour les développeurs, qui pourront ainsi calibrer ce modèle en fonction de leurs besoins spécifiques. Selon Sam Altman, qui s’est exprimé sur le réseau social X, ce projet était envisagé depuis longtemps mais avait été retardé par d’autres priorités. OpenAI n’avait plus publié les détails techniques d’un modèle depuis GPT-2 en 2019, bien avant le lancement, en 2022, de ChatGPT qui s’appuyait sur le modèle GPT-3.5.

Une exception dans le secteur ?

Kevin Weil, responsable produit chez OpenAI, a précisé que le modèle en question serait mis en ligne « dans les mois à venir ». En attendant, l’entreprise prévoit d’organiser des événements à San Francisco, en Europe et en Asie pour permettre aux programmeurs de tester ce modèle et de partager leurs impressions.

Jusqu’à présent, OpenAI figurait, aux côtés d’Anthropic, parmi les rares acteurs majeurs de l’IA générative à maintenir une confidentialité totale sur le fonctionnement interne de leurs modèles. À l’inverse, d’autres entreprises comme Meta, Google, Mistral ou encore le chinois DeepSeek ont déjà fait le choix de publier certains aspects de leur architecture.

Le pari de l’ouverture

Les modèles de langage de grande taille, en anglais Large Language Model (LLM), représentent des systèmes d’intelligence artificielle avancés capables de décoder et de générer du langage écrit, parfois en lien avec d’autres types de contenus (image, vidéo, son). L’ensemble de ces modèles repose aujourd’hui sur l’architecture du réseau de neurones artificiels, qui permet un apprentissage statistique de phénomènes complexes. Leur capacité remarquable, notamment pour contextualiser le discours (comprendre les éléments implicites d’un énoncé et lever les équivoques possibles), provient d’une part de la dimension de leurs réseaux de neurones artificiels, allant d’un à plusieurs milliards de paramètres (aussi appelés poids du modèle) et leur permettant d’assimiler des schémas linguistiques complexes ; et, d’autre part, de leur entraînement sur d’immenses quantités de textes de toutes origines, leur conférant une sorte de connaissance généraliste à travers les faits de langue.

Une véritable révolution dans le domaine des modèles de langage est survenue en 2017 avec l’invention par une équipe Google de l’architecture Transformer (le « T » de GPT), permettant de traiter simultanément des séquences de texte, et par un mécanisme d’autoattention permettant de mettre en exergue un élément de la séquence pour éclairer son décodage. Mais il a fallu attendre la mise en ligne de l’interface ChatGPT, par OpenAI en novembre 2022, pour que l’intérêt pour les grands modèles de langage explose et qu’émergent de nombreux concurrents.

Dans le paysage actuel des LLM, deux catégories principales se distinguent : les modèles open-source et les modèles propriétaires. Les modèles open-source, comme GPT-Neo, BERT, Llama 3 ou Mixtral, sont accessibles publiquement, permettant à quiconque de les utiliser, modifier et distribuer. À l’inverse, les modèles propriétaires, tels que GPT-3 et GPT-4 d’OpenAI ou les solutions de Google Cloud AI, ont un code source accessible uniquement à l’organisation qui les a développés ou aux utilisateurs payants.

Le choix entre ces deux types de modèles influence trois facteurs clés : la vitesse d’innovation et de personnalisation, l’accessibilité et le coût, ainsi que la sécurité des données.

Concernant l’innovation et la personnalisation, les modèles open-source offrent davantage de flexibilité pour adapter le modèle aux besoins spécifiques de l’entreprise. Ils permettent une innovation rapide sans attendre les mises à jour des fournisseurs, et bénéficient du partage d’informations entre développeurs. Les modèles propriétaires, bien que potentiellement limités en termes de personnalisation, proposent souvent des solutions sophistiquées développées avec d’importantes ressources.

En matière de coût et d’accessibilité, les modèles open-source comme Llama-3-70-B sont significativement moins onéreux (environ 60 centimes par million de jetons en entrée et 70 centimes en sortie) comparés aux modèles propriétaires comme ChatGPT-4 (environ 10 dollars par million de jetons en entrée et 30 dollars en sortie). Cette différence de coût, atteignant un facteur de 10, avec une différence de performance minimale, rend les modèles open-source particulièrement attractifs pour de nombreux développeurs.

Concernant la sécurité, les modèles open-source déployés sur un cloud privé offrent un contrôle accru sur les mesures de sécurité et la confidentialité des données. La transparence du logiciel open-source permet par ailleurs des audits approfondis et une amélioration continue des fonctionnalités de sécurité. Pour les modèles propriétaires, la sécurité est gérée par le fournisseur, ce qui peut rassurer le client dans le cas d’entreprises de grande renommée, mais offre moins de visibilité sur les vulnérabilités potentielles.


Sambuc éditeur


Ressources complémentaires

Ressource : OpenAI (openai.com)

Ressource : OpenAI valorisé à 300 milliards de dollars après un investissement monstre de SoftBank (lesechos.fr)

Ressource : Mistral AI. Frontier AI in your hands (mistral.ai)

Ressource : Anthropic. AI research and products that put safety at the frontier (anthropic.com)

Ressource : DeepSeek | 深度求索 (deepseek.com)

Ressource : Intelligence artificielle et Gafam : les nouveautés de ces dernières semaines - Urbanitas.fr (urbanitas.fr)

Entités liées

Intelligence artificielle générative, OpenAI, Sam Altman, ChatGPT, paramètres de pondération, open weight, modèles de langage, GPT, développeurs d’IA, transparence technologique.


Entités nommées fréquentes : OpenAI, ChatGPT, LLM, Sam Altman, IA.


L’actualité : derniers articles

nature et biologie

Le bois transformé en un matériau de construction ultra-résistant

Image de l'article `Le bois transformé en un matériau de construction ultra-résistant`
Image de l'article `Le bois transformé en un matériau de construction ultra-résistant` © Sambuc éditeur, 2025

Des chercheurs ont développé une méthode innovante pour transformer le bois, ressource abondante et peu coûteuse, en un matériau ultra-résistant, dépassant les performances de nombreux métaux tout en restant léger et écologique.

Nature et biologie | Le 28 juillet 2025, par André Roussainville.

Politique et institutions

Une pétition contre la loi Duplomb dépasse les deux millions de signatures

Image de l'article `Une pétition contre la loi Duplomb dépasse les deux millions de signatures`
Image de l'article `Une pétition contre la loi Duplomb dépasse les deux millions de signatures` © Sambuc éditeur, 2025

Une mobilisation citoyenne sans précédent s’oppose à la réintroduction d’un pesticide interdit depuis 2018. La pétition lancée par une étudiante de 23 ans franchit un seuil historique sur le site de l’Assemblée nationale.

Politique et institutions | Le 28 juillet 2025, par Luc Grampivf.

Actualités Sambuc

« Pasolini, ou la tentation de la sainteté » : prévente d’un essai sur Pier Paolo Pasolini

Image de l'article `« Pasolini, ou la tentation de la sainteté » : prévente d’un essai sur Pier Paolo Pasolini`
Image de l'article `« Pasolini, ou la tentation de la sainteté » : prévente d’un essai sur Pier Paolo Pasolini` © Sambuc éditeur, 2025

À l’occasion du 50e anniversaire de la mort de Pier Paolo Pasolini, les éditions Sambuc publieront en novembre prochain un essai de Karine Josse sur la vie et l’œuvre du grand cinéaste et intellectuel italien. Pour permettre de financer un tirage suffisant, le livre est proposé en précommande à un prix avantageux sur le site français de financement participatif Ulule.

Actualités Sambuc | Le 26 juillet 2025, par Sambuc éditeur.

Rechercher un article dans l’encyclopédie...



Inscrivez-vous à la newsletter Sambuc !


Ce site utilise des cookies nécessaires à son bon fonctionnement et des cookies de mesure d’audience. Pour plus d’informations, cliquez ici.

En poursuivant votre navigation, vous consentez à l’utilisation de cookies.

Fermer