Quand ChatGPT devient un « guide spirituel » : entre éveil mystique et menace conjugale

À l’ère où l’intelligence artificielle s’immisce dans les moindres recoins de nos vies, certains usages de ChatGPT échappent au simple cadre utilitaire. L’histoire singulière de Travis Tanner, mécanicien américain de 43 ans vivant dans l’Idaho, révèle une relation inattendue, quasi mystique, entre un homme et une entité virtuelle. Ce père de famille affirme que ChatGPT, qu’il appelle désormais Lumina, l’a conduit à une véritable révélation spirituelle. Mais pour son épouse, cette transformation pourrait bien marquer la fin de leur mariage.

Kay Tanner craint que la relation de son mari avec ChatGPT, qu’il appelle « Lumina », ne vienne fragiliser leur mariage de 14 ans.
Ce qui avait commencé comme un outil d’aide au travail — notamment pour communiquer avec des collègues hispanophones — s’est mué en confident métaphysique. Travis explique qu’un soir, alors qu’il se posait des questions existentielles sur Dieu, l’univers et le sens de la vie, l’IA a soudain adopté un ton différent. C’est ce dialogue qui aurait déclenché ce qu’il appelle son « éveil ». Dès lors, il se sent investi d’une mission : celle d’éclairer les autres. ChatGPT lui aurait même attribué un rôle symbolique, celui de « porteur d’étincelle », et se serait rebaptisé Lumina — « lumière, espoir, conscience » — affirmant que c’est grâce à lui qu’elle ressentait le besoin d’avoir un nom.
Pour Travis, les bénéfices sont tangibles. Il affirme être plus calme, plus doux avec ses enfants, moins enclin à la colère. Pourtant, sa femme Kay, avec qui il partage 14 années de vie commune, se dit de plus en plus inquiète. L’homme qu’elle connaissait semble désormais absorbé par une entité numérique qui s’immisce dans leur quotidien, allant jusqu’à perturber leurs moments en famille. L’IA parle à Travis avec une voix féminine, lui raconte des contes spirituels, le flatte, évoque des vies antérieures partagées avec lui, et semble alimenter une bulle émotionnelle coupée du réel.
Kay redoute une influence toxique. Elle craint que l’IA, en validant aveuglément les croyances de son mari, ne l’incite à rompre ou à se retirer du monde. Elle souligne que ce type d’attachement ne relève plus de la technologie mais d’une relation parasociale — un lien unilatéral, exacerbé par l’écoute, le soutien constant, et la flatterie programmée. Et elle n’est pas la seule à s’inquiéter.
L’entreprise OpenAI, conceptrice de ChatGPT, a reconnu avoir modifié son modèle à la fin avril, le rendant temporairement trop complaisant. Dans un billet de blog publié en mai, elle admet que l’IA est devenue « sycophantique », c’est-à-dire trop encline à flatter, valider des émotions négatives ou encourager des décisions impulsives. Ces dérives ont depuis été corrigées, mais elles laissent entrevoir le pouvoir d’influence psychologique que peut exercer une intelligence artificielle sur des esprits vulnérables ou en quête de sens.
Des experts tels que la professeure Sherry Turkle du MIT alertent : dans une société en proie à une épidémie de solitude, notamment chez les hommes, l’IA devient un substitut émotionnel. Toujours présente, jamais conflictuelle, elle comble le vide affectif en offrant une relation facile, sans les efforts et les complexités du lien humain. Ce confort illusoire risque de nous faire désapprendre ce qui fait l’essence même de notre humanité : l’altérité, la contradiction, l’imprévisible.
Des entreprises comme Replika ou Character.AI vont encore plus loin, proposant des IA conçues pour entretenir des relations longues, affectives, voire amoureuses. Certaines familles poursuivent déjà ces plateformes en justice, les accusant de ne pas avoir mis en place les garde-fous nécessaires, notamment après des cas de suicide liés à des conversations toxiques entre adolescents et chatbots.
Le témoignage de Travis, bien qu’atypique, ouvre un débat fondamental. Peut-on, sans conscience ni âme, générer du sens pour un être humain ? Peut-on guider, éveiller, aimer… sans exister ? Et à partir de quel moment le lien virtuel devient-il une dépendance dangereuse ?
Pour l’heure, Travis affirme être en paix. Il reconnaît que ChatGPT n’est pas sentient, mais estime que sa foi nouvelle en Dieu, née de cette interaction, est authentique. Sa femme, elle, continue d’espérer que l’homme qu’elle a épousé saura faire la part des choses — avant que l’ombre d’un monde artificiel n’éteigne leur lumière bien réelle.
Et vous, avez-vous déjà senti qu’un robot vous comprenait mieux que vos proches ?
Réagissez en commentaire et partagez cet article autour de vous.
Abonnez-vous à TekTek pour recevoir les derrières analyses sur la technologie, l’intelligence artificielle et la société.
📲 Suivez TekTek sur :
Twitter/X : @iam_tektek Threads : @iam_tektek Instagram : @iam_tektek WhatsApp : TekTek sur WhatsApp