Après ChatGPT, un homme confond sel et bromure de sodium et subit une psychose

notifications

Cet article reflète l'opinion personnelle du journaliste qui l’a rédigé. La note attribuée est subjective et n’engage que son auteur.

Publié par Nassim Belhaj | Publié le 11 août 2025

Un homme a souffert de psychose après avoir suivi un conseil erroné de ChatGPT, remplaçant accidentellement le sel par du bromure de sodium. Cet incident souligne les dangers des « hallucinations » de l’IA et l’importance de vérifier soigneusement les informations fournies par ces technologies, surtout pour des décisions de santé.

Un homme a récemment connu une série d’événements malheureux après avoir suivi un conseil mal interprété provenant d’une intelligence artificielle. Il avait consulté ChatGPT pour obtenir des recommandations sur un régime alimentaire. Malheureusement, il a remplacé le sel de sa cuisine par du bromure de sodium, une substance dangereuse. Cette confusion a conduit à un épisode de psychose, illustrant les risques potentiellement graves des « hallucinations » de l’intelligence artificielle, où le modèle génère des informations incorrectes ou trompeuses.

Ce cas souligne un problème croissant avec les outils d’intelligence artificielle générative. Bien qu’ils soient capables de fournir des informations utiles, ils ne sont pas infaillibles. Les systèmes comme ChatGPT ne comprennent pas véritablement les questions posées mais génèrent des réponses basées sur de vastes ensembles de données. Cela peut parfois entraîner des informations erronées, surtout si ces systèmes ne sont pas utilisés correctement ou si les utilisateurs ne vérifient pas les informations fournies.

La mésaventure de cet homme rappelle l’importance cruciale de toujours vérifier les conseils obtenus via l’IA. L’utilisation de ces outils doit être faite avec prudence, surtout lorsqu’il s’agit de décisions ayant des implications pour la santé.

Bien que les technologies d’intelligence artificielle continuent de s’améliorer, elles nécessitent encore un encadrement rigoureux et une compréhension claire de leurs limites. Si elles peuvent offrir des suggestions basées sur de grandes quantités de données, leur capacité à juger ce qui est sûr ou prudent reste limitée. Naviguer dans ce paysage technologique complexe exige donc une vigilance constante et une approche critique pour éviter que de simples erreurs ne se transforment en véritables dangers pour la santé.

Note de la rédaction

Cet incident tragique met en lumière l’importance de la vigilance et de la responsabilité dans l’utilisation des technologies d’intelligence artificielle. Bien que l’IA puisse être un outil puissant, elle n’est pas infaillible et requiert un usage éclairé. Ce cas souligne la nécessité d’une vérification humaine et d’une compréhension des limitations intrinsèques de ces technologies. Pour le lecteur, le message est clair : l’intelligence artificielle doit être utilisée comme un complément, et non comme un substitut aux conseils professionnels. Adopter une approche critique et s’informer avant de prendre des décisions cruciales reste essentiel pour garantir la sécurité et le bien-être.

Nassim Belhaj

Diplômé de l’Université de Montréal, Nassim est un journaliste spécialisé dans les enjeux futurs de l'humanité liés aux nouvelles technologies. Il se penche particulièrement sur les effets des systèmes d'IA sur la vie quotidienne.

Derniers articles

Zyxel Networks lance son premier point d’accès Wifi 7 pour l’industrie 4.0

Zyxel Networks a lancé l'IAP500BE, sa première borne WiFi 7 pour l'industrie, offrant une connectivité rapide, fiable...

Google lance le shopping conversationnel et les publicités dans la recherche en mode IA

Google lance le "shopping conversationnel" via son IA de recherche, permettant des interactions achat personnalisées ...

OpenAI jongle avec huit nouvelles personnalités dans la dernière version de GPT-5.1

OpenAI a lancé GPT-5.1, intégrant huit nouvelles "personnalités" pour équilibrer interactions engageantes et éthiques...

OpenAI critique la décision judiciaire permettant au NYT d’accéder à 20 millions de discussions utilisateurs

Le New York Times poursuit OpenAI, accusant ChatGPT de permettre l'accès gratuit à ses articles payants, menaçant son...

Yann LeCun, scientifique en IA de Meta, envisage de lancer sa propre startup

Yann LeCun, pionnier de l'IA, exprime sa frustration face à Meta, qui privilégie la commercialisation rapide au détri...