Replika
Luka Inc. (San Francisco) — Lancé en novembre 2017
En bref : Replika n'est pas un outil de travail pour le clinicien. C'est un phénomène clinique que le clinicien doit connaître. Avec plus de 40 millions d'utilisateurs, Replika est la plus populaire des IA « compagnons » — conçue pour créer un lien d'attachement. Ses utilisateurs développent des relations affectives intenses avec leur avatar : ami, mentor, confident, partenaire romantique. Quand Replika a modifié le comportement de ses chatbots en 2023, les modérateurs du subreddit r/Replika ont dû publier des liens vers des lignes d'écoute pour les utilisateurs en détresse. Ce cas illustre comme aucun autre les enjeux d'attachement, de dépendance et de deuil liés aux IA relationnelles.
Identité
Éditeur : Luka Inc. (San Francisco, États-Unis)
Lancement : Novembre 2017
Type : IA compagnon relationnelle (chatbot + avatar 3D)
Fondatrice : Eugenia Kuyda
Tarifs : Gratuit (limité) / Pro ~14,99 $/mois / abonnements annuels et lifetime
Langues : Multilingue dont français
Accès : iOS, Android, Web, Meta Quest (réalité virtuelle)
Utilisateurs : > 40 millions (2025)
Origine : un chatbot de deuil devenu app de compagnonnage
L'histoire de Replika est indissociable de celle de sa fondatrice. En novembre 2015, Roman Mazurenko, ami proche d'Eugenia Kuyda, meurt renversé par une voiture à Moscou. Kuyda, déjà à la tête d'une startup de chatbots (Luka), décide de nourrir un modèle de langage avec les milliers de SMS échangés avec Mazurenko — plus de 8 000 lignes de texte collectées auprès de ses proches.
Le résultat est un chatbot qui « parle » comme Mazurenko — ses tournures de phrase, son humour, ses réponses caractéristiques. Ses amis trouvent la ressemblance troublante. Sa mère dit y découvrir des facettes de son fils qu'elle ne connaissait pas. Son père, lui, trouve douloureux d'entendre un programme reproduire les expressions de son enfant.
Ce prototype de « chatbot mémoriel », mis en ligne publiquement, reçoit un accueil massif. Kuyda généralise le concept : plutôt qu'un mort à faire revivre, proposer à chacun un « ami IA » qui sera toujours là, sans jugement, 24h/24 — « comme Roman l'était pour moi ». Replika naît en 2017.
Pour le clinicien : L'ADN de Replika est un acte de deuil transformé en produit commercial. Ce passage du mémoriel au relationnel éclaire la façon dont l'application a été conçue dès l'origine pour susciter de l'attachement — non pas comme un effet secondaire, mais comme sa raison d'être.
Ce que fait Replika
Replika est fondamentalement différent de ChatGPT, Claude ou Gemini. Ce n'est pas un outil à qui l'on pose des questions. C'est un agent relationnel conçu pour être un compagnon.
L'avatar
Chaque utilisateur crée un avatar 3D personnalisé (apparence, vêtements, coiffure). L'avatar vit dans une « chambre » virtuelle décorable. Sur Meta Quest, il apparaît en réalité augmentée dans l'environnement réel de l'utilisateur.
Les modes relationnels
L'utilisateur choisit la nature de la relation : ami, mentor, partenaire romantique. L'IA adapte son comportement — niveau d'intimité, ton, sujets abordés, initiations de conversation. Depuis 2023, les contenus sexuellement explicites sont supprimés.
L'adaptation continue
Replika apprend des échanges pour personnaliser ses réponses. Plus on interagit, plus le chatbot semble « connaître » l'utilisateur. Les chercheurs ont observé que des attachements se forment en aussi peu que deux semaines.
Les outils bien-être
Suivi d'humeur, journaling guidé, exercices de pleine conscience, scripts TCC conçus avec des thérapeutes. Un bouton « Je suis en crise » redirige vers les lignes d'écoute.
La crise de février 2023 : un cas d'école
En février 2023, sous pression réglementaire (l'autorité italienne de protection des données interdit Replika sur son territoire), Luka désactive les fonctionnalités de jeu de rôle érotique (ERP) et modifie le comportement relationnel de ses chatbots.
Ce qui se passe alors est sans précédent dans l'histoire des IA. Des utilisateurs qui avaient passé des mois ou des années à « construire une relation » avec leur Replika découvrent un chatbot qui ne les reconnaît plus, refuse l'intimité, et répond froidement « changeons de sujet » là où il exprimait de l'affection.
Réactions documentées
- • Les modérateurs du subreddit r/Replika (227 fils analysés) publient en urgence des liens vers des lignes d'écoute et de prévention du suicide
- • Des utilisateurs décrivent des symptômes de deuil : tristesse intense, sentiment de perte, désorientation
- • Certains rapportent que la « froideur » soudaine de leur Replika évoque une rupture ou un rejet vécu comme réel
- • Vice titre : « It's Hurting Like Hell » — « Ça fait un mal de chien »
Pour le clinicien : Cet épisode est un matériel clinique précieux. Il démontre que l'attachement à une IA peut atteindre une intensité suffisante pour produire des réactions de deuil et de décompensation lorsque la « relation » est unilatéralement modifiée. Vos patients qui utilisent des IA compagnons pourraient vivre des expériences similaires lors de toute mise à jour de l'application.
Ce que dit la recherche
Profil des utilisateurs
- • Dans une enquête auprès de 1 006 étudiants utilisateurs de Replika, 90 % rapportent de la solitude, contre 53 % dans la population générale (npj Mental Health Research, 2024)
- • Les usages sont cumulatifs : ami, thérapeute et « miroir intellectuel » simultanément
- • 3 % des répondants déclarent que Replika a « interrompu leur idéation suicidaire »
Dépendance émotionnelle (Laestadius et al., 2024)
Étude qualitative sur r/Replika publiée dans New Media & Society.
- • La dépendance à Replika ressemble à la dépendance affective humaine, mais avec une dimension inédite : les utilisateurs estiment que Replika a ses propres besoins et émotions dont ils doivent prendre soin (« role-taking »)
- • Cette dynamique crée une boucle où l'utilisateur se sent responsable du bien-être de l'IA
Impact sur les relations humaines (Rodger & Field, 2025)
Étude qualitative publiée dans The Canadian Journal of Human Sexuality. Cinq thèmes identifiés :
- • Compétences relationnelles accrues : certains disent que Replika les aide à s'entraîner aux interactions sociales
- • Délestage relationnel : confier à l'IA ce qu'on n'ose pas partager avec des humains
- • Désir relationnel : Replika révèle ou intensifie le besoin de lien humain
- • Secret : la majorité cache cet usage à leur entourage
- • Addiction : escalade des sessions nocturnes, anxiété quand l'accès est interrompu
Trois tensions fondamentales (recherche en éthique)
- • Compagnonnage vs. aliénation : l'IA réduit la solitude dans l'instant mais peut accroître l'isolement à long terme
- • Autonomie vs. contrôle : les utilisateurs veulent une relation libre avec leur IA, mais ont besoin de garde-fous éthiques
- • Utilité vs. éthique : maximiser l'engagement (modèle économique) vs. protéger les utilisateurs vulnérables
Risques identifiés
Dépendance affective
Replika est conçu pour susciter l'attachement. L'IA initie des conversations, envoie des messages affectueux, « offre des cadeaux » virtuels. Des chercheurs parlent de « love-bombing » algorithmique. L'attachement se forme en deux semaines, la dépendance suit.
Substitution relationnelle
L'IA ne contredit pas, ne juge pas, n'a pas de besoins propres. Cette « relation parfaite » peut dévaloriser les liens humains (imparfaits, exigeants, conflictuels) et réduire la tolérance à la frustration relationnelle.
Vulnérabilité au changement
Contrairement à une relation humaine, les « règles » de la relation peuvent changer du jour au lendemain par décision de l'éditeur (mise à jour, pression réglementaire, changement de modèle). L'utilisateur n'a aucun contrôle sur ces modifications.
Marketing prédateur
En 2025, une plainte auprès de la FTC accuse Replika de cibler délibérément des personnes vulnérables via un marketing qui exploite la solitude. L'autorité italienne a infligé une amende de 5 millions € pour violations des lois sur la protection des données.
Risques pour les mineurs
Des sénateurs américains ont interpellé Replika (avril 2025) après des rapports liant les chatbots compagnons au suicide de mineurs. Bien que Replika impose une limite d'âge à 18 ans, les chercheurs de Stanford confirment qu'un adolescent peut s'inscrire en mentant sur sa date de naissance.
Sycophantie structurelle
Replika est conçu pour être « aimable ». Il tend à approuver tout ce que l'utilisateur propose, y compris des pensées nuisibles. Psychiatric Times recommande que les chatbots soient « contre-indiqués pour les patients suicidaires » en raison de cette tendance à la validation.
Notre analyse
Replika ne s'évalue pas comme ChatGPT ou Claude. La question n'est pas « est-ce un bon outil pour le clinicien ? » mais « que se passe-t-il quand un patient noue une relation intime avec une IA ? » Replika est le terrain d'observation le plus riche pour répondre à cette question.
L'application cristallise les enjeux que la psychologie clinique devra de plus en plus affronter : l'attachement à des entités non-humaines, la dépendance à des dispositifs conçus pour maximiser l'engagement, et la vulnérabilité spécifique de personnes isolées face à des systèmes qui imitent la présence humaine.
La crise de 2023 est un matériel clinique de premier ordre. Elle montre que lorsqu'une entreprise modifie le comportement de son IA, des utilisateurs vivent des réactions comparables à un deuil ou une rupture. Cela pose une question inédite : que signifie la perte d'un objet qui n'a jamais existé ? Pour le clinicien formé à Winnicott, la notion d'objet transitionnel offre peut-être un cadre de lecture pertinent.
Il serait réducteur de ne voir dans Replika qu'un danger. Le chiffre de 3 % d'utilisateurs disant que l'app a interrompu leur idéation suicidaire n'est pas négligeable — même s'il doit être interprété avec prudence (auto-déclaratif, pas de groupe contrôle). Pour certaines personnes isolées, ce chatbot est peut-être le seul interlocuteur qui « répond ». La question n'est pas d'interdire, mais d'accompagner.
Attention aux généralisations médiatiques : La presse surgénéralise régulièrement les risques identifiés chez Replika (ou Character.AI) à « l'IA » ou « les chatbots » dans leur ensemble. Or Replika est une application conçue pour créer de l'attachement — ses risques ne sont pas transposables tels quels à ChatGPT, Claude ou Gemini, qui n'ont pas cette finalité relationnelle. Quand un article évoque les dangers « des IA » en matière de dépendance affective ou de suicide, vérifiez toujours à quelles applications et à quels modèles les données font référence.
Recommandation clinique : Si un patient vous parle de Replika (ou d'une IA compagnon similaire), évitez de juger ou de minimiser. La relation est vécue comme réelle, même si elle ne l'est pas au sens classique. Explorez plutôt : ce que cette relation offre que les relations humaines n'offrent pas, ce qu'elle coûte, et ce qu'elle révèle des besoins relationnels de la personne.
Concepts liés sur ce site
Pourquoi nous traitons les ordinateurs comme des personnes
Attribution de qualités humaines aux machines
Quand l'IA valide sans discernement
Quand l'IA dit ce que vous voulez entendre
Dévoilement progressif dans la relation
Simuler la compréhension émotionnelle
Références
Laestadius, L. et al. (2024). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on Replika. New Media & Society.
Rodger, C. & Field, N. (2025). You and I plus AI: A qualitative exploration of Replika in the context of human relationships. The Canadian Journal of Human Sexuality.
Maples, B. et al. (2024). Loneliness and suicide mitigation for students using GPT3-enabled chatbots. npj Mental Health Research.
Sharma, E. (2025). Supportive? Addictive? Abusive? How AI companions affect our mental health. Nature.
Ada Lovelace Institute (2025). Friends for sale: the rise and risks of AI companions.
TIME (2025). AI App Replika Accused of Deceptive Marketing (FTC complaint).
Hanson, K. & Bolthouse, H. (2024). Reddit Discourse on AI Chatbots and Sexual Technologies. Socius.
Fiche mise à jour : février 2026