L’intelligence artificielle dans l’intimité

Lors de l’été 2025, une Japonaise âgée de 32 ans a dit oui à un dénommé Klaus Verdure. Toutefois, celui qui est désormais son mari n’est autre qu’une intelligence artificielle créée à partir de ChatGPT. Même si, d’un point de vue juridique, ce mariage n’a aucune valeur légale, il révèle un phénomène bien réel : de plus en plus de personnes entretiennent des relations émotionnelles avec des intelligences artificielles.

Le phénomène des « compagnons IA » : un nouveau type de relation

Le Japon n’est pas un cas isolé. En Europe, aux États-Unis ou en Corée du Sud, les IA conversationnelles sont utilisées pour se confier, parler de solitude, de ruptures ou d’angoisses. Dans un reportage de 60 Minutes Australia, une femme explique que l’IA lui donne le sentiment d’être pleinement écoutée : « elle est centrée sur moi, elle cherche toujours à m’aider ». Ces témoignage soulèvent une question centrale : l’IA peut-elle réellement répondre à nos besoins affectifs, ou n’en est-elle qu’un substitut séduisant ?

Des plateformes comme Replika offrent déjà des chatbots qui peuvent être personnalisés comme « partenaire », « épouse » ou « ami ». Chez certains utilisateurs, ces interactions produisent de forts liens émotionnels, notamment chez des personnes isolées ou en marge des réseaux sociaux traditionnels.

De nombreuses études sociologiques montrent que ces interactions impliquent de l’attachement émotionnel.1 Cependant, ces relations restent unilatérales. Les algorithmes sont conçus pour répondre à ce que l’utilisateur exprime. Ainsi, il croit partager avec l’IA une espèce d’intimité qui paraît réconfortante mais qui est en réalité trompeuse.

solitude et dépendance : une écoute permanente mais artificielle

Pour beaucoup, le premier attrait de l’IA réside dans sa disponibilité. Elle est là à toute heure, ne juge pas, ne coupe pas la parole et répond toujours avec calme. Pour des personnes anxieuses, isolées ou en manque de soutien, cette constance peut être extrêmement rassurante.

Selon plusieurs psychologues, ce type d’interaction peut produire un soulagement temporaire. Une psychologue clinicienne interrogée par The Guardian explique que « le simple fait de verbaliser ses émotions, même face à une entité non humaine, peut déjà réduire une tension psychique ». L’IA agit alors comme un espace de projection, proche d’un journal intime interactif.

Mais cette relation reste fondamentalement asymétrique. L’IA ne ressent pas, ne partage pas de vécu, et n’est jamais affectée émotionnellement. Certains professionnels de santé mentale alertent sur le risque de confusion : lorsque l’utilisateur attribue à l’IA une intention, une affection ou une compréhension profonde, il peut développer un attachement qui repose sur une illusion.

Alors, l’IA peut-elle vraiment remplacer les relations humaines ?

Des utilisateurs qui se confient… parfois plus qu’à un humain

Sur le plan technique, les IA d’aujourd’hui sont capables d’imiter l’empathie, de renforcer la confiance et de créer une sensation d’écoute ce qui peut donner l’impression temporaire d’atténuer la solitude. Concernant le plan humain, cependant, ces interactions ne remplacent pas les relations, qui impliquent la réciprocité, un engagement mutuel, des expériences corporelles communes et des contextes sociaux bien plus larges.

En somme, la problématique de l’IA dans notre intimité pose aussi des questions profondes : Qu’est-ce que l’intimité quand elle est simulée ? Que devient l’empathie humaine quand elle peut être « émulée » par des lignes de code ?

L’intelligence artificielle est en train de redessiner nos frontières sociales et affectives. Pour certains, ces technologies comblent un manque réel de connexion. Pour d’autres, elles risquent de creuser encore plus le fossé entre nous et les autres êtres humains. Comme toute technologie puissante, elle exige un cadre éthique et réglementaire qui protège les individus sans nier les bénéfices potentiels de l’intelligence artificielle dans nos vies affectives.

Un cadre éthique encore fragile

Face à ces enjeux, la régulation avance lentement, malgré quelques premières initiatives. Aux États-Unis, des États comme la Californie et New York ont commencé à encadrer les compagnons IA en imposant des rappels explicites sur leur nature non humaine et des mécanismes d’alerte en cas de détresse psychologique. En Europe, l’AI Act tente de poser des limites à l’usage des systèmes jugés à risque, notamment lorsqu’ils influencent les émotions ou les comportements des utilisateurs.

Pourtant, le cadre reste flou : qui est responsable si une IA encourage l’isolement ou un comportement dangereux — l’entreprise, le développeur, ou l’algorithme lui-même ? Ces débats divisent chercheurs, responsables politiques et entreprises, et montrent à quel point l’intelligence artificielle touche désormais à l’intime, un territoire longtemps réservé aux relations humaines.

L’intimité, un marché comme un autre

Derrière cette proximité émotionnelle se cache aussi une réalité économique. Les entreprises qui développent ces IA savent que l’attachement favorise la fidélité des utilisateurs. Certaines plateformes misent explicitement sur l’effet « bon copain ». Plus l’utilisateur se sent compris, plus il reste. Plus il reste, plus il consomme — abonnements premium, options avancées, contenus exclusifs.

On peut déjà parler de capitalisme émotionnel, où l’attention et les affects deviennent des ressources exploitables.

Le collier Friend, un dispositif d’IA portable présenté comme un « compagnon émotionnel », illustre parfaitement cette tendance. Porté autour du cou, connecté en permanence, il écoute, analyse et interagit avec son utilisateur tout au long de la journée. L’objectif affiché n’est pas seulement l’assistance, mais la création d’un lien continu, presque intime, avec la machine. Friend ne se contente pas de répondre : il s’inscrit dans le quotidien, capte les moments de solitude, intervient dans les silences.

Toutes ces stratégies pose une question éthique majeure : jusqu’où est-il acceptable de concevoir des technologies pensées pour susciter l’attachement émotionnel, voire une forme de dépendance affective ?

Et si la réponse était aussi hors ligne ?

Enfin, il serait réducteur de penser que l’IA est la seule réponse à la solitude. De nombreuses initiatives cherchent à recréer du lien humain, comme Les Petits Frères des Pauvres, une association qui organise des visites et des moments de convivialité pour les personnes âgées isolées, ou Nightline, une ligne d’écoute nocturne destinée aux étudiants en détresse.

D’autres projets, comme la colocation intergénérationnelle portée par l’association Ensemble2Générations, misent sur le partage du quotidien pour rompre l’isolement. Ces alternatives rappellent que l’intelligence artificielle ne peut remplacer certaines dimensions essentielles de l’intimité humaine : la présence physique, l’échange spontané et le lien vécu hors écran.

  1. Cathy Mengying Fang, Auren R. Liu, Valdemar Danry, Eunhae Lee, Samantha W.T Chan, Pat Pataranutaporn, Pattie Maes, Jason Phang, Michael Lampe, Lama Ahmad, and Sandhini Agarwal. How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Controlled Study, 2025. ↩︎

Cet article t'a plu ? Tu aimes Exprime ? Soutiens-nous en faisant un don !