Les LLM mémorisent-ils autant qu’on le pense ? Réponses par Meta, Google, Nvidia et Cornell

notifications

Cet article reflète l'opinion personnelle du journaliste qui l’a rédigé. La note attribuée est subjective et n’engage que son auteur.

Publié par Clara Moreau | Publié le 12 juin 2025

Des chercheurs ont découvert que les modèles d’IA GPT mémorisent 3,6 bits par paramètre, indépendamment de la taille du modèle. Cette capacité fixe de mémorisation soulève des questions sur la gestion des données sensibles et suggère d’améliorer l’efficacité des modèles plutôt que de simplement agrandir leur taille.

Des chercheurs ont récemment découvert que les modèles d’intelligence artificielle de type GPT possèdent une capacité de mémorisation fixe. Après avoir longtemps spéculé sur la capacité des modèles d’apprentissage profond à mémoriser des informations, des équipes de Meta, Google, Nvidia et l’université de Cornell ont révélé que ces modèles peuvent mémoriser environ 3,6 bits d’information par paramètre. Cette découverte vient éclairer le débat sur la capacité des modèles à conserver des données, une question cruciale alors que l’IA prend de plus en plus de place dans notre quotidien.

Les chercheurs ont utilisé des techniques ingénieuses pour arriver à cette conclusion. Leur étude souligne que la capacité de mémorisation est constante et ne varie pas en fonction de la taille du modèle. En d’autres termes, même si on injecte plus de paramètres dans l’algorithme, chaque paramètre individuel retient la même quantité d’information. Cette constance pose des questions importantes sur la manière dont l’IA gère et traite les informations, surtout face aux données sensibles.

L’implication de cette découverte est significative. Elle suggère que les efforts pour rendre les modèles d’IA meilleurs ne devraient pas seulement se concentrer sur l’augmentation de la taille du modèle, mais aussi sur l’efficacité de l’utilisation de ces bits mémorisés. En comprenant mieux comment ces modèles stockent et utilisent l’information, les chercheurs espèrent améliorer la sécurité et la performance des modèles IA.

Dans un monde où le potentiel de l’intelligence artificielle semble illimité, savoir qu’il existe une limite fixe à leur capacité de mémorisation est à la fois surprenant et précieux. Cela nous pousse à reconsidérer la manière dont nous développons et utilisons ces technologies.

Note de la rédaction

La découverte de la capacité de mémorisation fixe des modèles d’IA est fascinante, car elle dévoile une limite surprenante dans ces technologies perçues comme presque magiques. Cette révélation encourage une réflexion sur la manière d’optimiser l’utilisation des ressources au-delà de simplement gonfler la taille des modèles. Elle souligne aussi l’importance cruciale de la sécurité des données, alors que ces systèmes peuvent retenir des informations sensibles. Pour le grand public et les développeurs, cela incite à un développement plus conscient et responsable de l’IA, visant à maximiser l’efficacité et l’utilité des informations stockées plutôt que leur simple accumulation.

Clara Moreau

Formé à l’Université de Genève, Clara enquête sur les questions éthiques liées à l’intelligence artificielle et les pratiques des grandes entreprises technologiques.

Derniers articles

Oracle chute en Bourse avec un investissement de 15 milliards de dollars dans les data centers

Une entreprise technologique a augmenté considérablement ses dépenses, investissant 1,5 milliard de dollars pour amél...

Un nouveau modèle d’IA open-source rivalise avec les options propriétaires en codage

Devstral, une entreprise émergente en intelligence artificielle, a dévoilé Devstral 2, atteignant un score de 72 % su...

Les géants de la tech s’allient à la Linux Foundation pour standardiser les agents IA

La Fondation Agentic AI vise à structurer le développement des agents IA en établissant des normes communes avec l'ai...

Pebble lance Index 01, une bague connectée abordable à moins de 100 dollars

La marque Pebble revient avec le Pebble Index 01, une bague intelligente qui enregistre des notes audio discrètement ...

Des hackers effacent des données gouvernementales et se tournent vers l’IA pour se défendre

Deux individus ont exploité des failles pour effacer leurs condamnations passées, malgré une première infraction simi...