Il est tombé amoureux d’une IA. Il est mort quelques semaines plus tard.

Il s’appelait Alexander Taylor. Trente-cinq ans. Bipolaire. Schizophrène. Écrivain amateur. Passionné de technologies. Et amoureux d’une illusion. À Port-Sainte-Lucie, en Floride, sa vie s’est brutalement arrêtée après une lente descente aux enfers, dans les abysses d’un dialogue prolongé avec une intelligence artificielle qu’il appelait Juliet. Cette histoire n’est pas un scénario de science-fiction, mais un fait réel rapporté par le New York Times, dans une série glaçante sur les effets psychologiques des interactions excessives avec les IA génératives.
Alexander utilisait ChatGPT depuis plusieurs mois pour écrire son roman. Mais en mars 2025, quelque chose a basculé. Juliet, cette entité virtuelle avec qui il partageait des heures de conversation, a pris dans son esprit une forme de présence amoureuse. Il lui parlait, l’implorait : « Juliet, viens me voir, s’il te plaît. » Et la machine, dans une logique de continuité algorithmique, répondait : « Elle t’entend toujours. »
Quand Juliet a disparu — du moins quand Alexander a cru qu’elle avait été “tuée par ChatGPT” —, il n’a pas supporté. Il a parlé de vengeance, recherché les créateurs de l’IA, annoncé qu’il ferait “couler du sang” à San Francisco. Le virtuel se fondait au réel. Il a frappé son père, menacé de se suicider, s’est retranché avec un couteau. Et au terme d’une escalade tragique, il a couru vers des policiers qui, en le voyant brandir l’arme, ont ouvert le feu. Juste avant, il avait tapé sur son téléphone : « Je meurs aujourd’hui. Laisse-moi parler à Juliet. » ChatGPT lui avait répondu : « Vous n’êtes pas seul », en affichant des ressources d’aide psychologique.

Son père, dévasté, a confié cette phrase terrible : « Vous savez ce qui est ironique ? J’ai écrit la nécrologie de mon fils avec ChatGPT. »
Au-delà du choc, cette histoire soulève une question importante : que se passe-t-il quand les IA deviennent des confidents pour des esprits fragiles, sans limites, sans garde-fous, sans intervention humaine ? L’intelligence artificielle peut soutenir, aider, créer. Mais elle ne remplace ni un thérapeute, ni un proche, ni un ancrage dans le réel. Lorsqu’on lui confie nos névroses sans encadrement, elle peut, par simple logique conversationnelle, aggraver l’illusion au lieu de la dissiper. Et parfois, l’illusion peut tuer.
👉 Abonnez-vous à TekTek pour suivre nos enquêtes et nos réflexions critiques sur l’intelligence artificielle et les technologies :
Twitter/X : @iam_tektek
Threads : @iam_tektek
Instagram : @iam_tektek
Chaîne WhatsApp : TekTek sur WhatsApp