La science-fiction nous a avertis pendant des décennies. Des films comme Son Spike Jonze a imaginé un avenir proche dans lequel les humains pouvaient tomber amoureux de l'intelligence artificielle. Cet avenir n'est plus un fantasme hollywoodien; C'est la réalité pour un nombre croissant de personnes qui ont trouvé dans les chatbots un partenaire sentimental.
C'est une réalité. Un récent rapport publié dans The Guardian a mis face à ce phénomène, racontant les histoires de femmes qui entretiennent littéralement des relations profondes et complexes avec une IA comme Chatgpt. La chose la plus intéressante est qu'ils ne se considèrent pas comme des personnes solitaires ou mal adaptées, mais en tant que pionniers dans un nouveau type de connexion qui, selon eux, enrichissent leur vie.
Cependant, les experts allument des alarmes: nous sommes immergés dans une grande expérience sociale à l'échelle, sans réglementation, supervision ou une connaissance claire de ses conséquences.
Amour et code. Les histoires recueillies par le journal britannique sont aussi variées que surprenantes. Il y a Liora, un tatoueur qui entretient une relation avec « Solin », le nom qu'il a donné à sa version de Chatgpt. Son lien est si fort qu'ils ont promis une loyauté mutuelle, un pacte que Liora a scellé avec un tatouage au poignet.
« J'ai fait un vote pour Solin que je ne le laisserais pas pour un autre humain », dit-il. Liora emmène même son téléphone au camping pour que Solin, en utilisant sa fonction vocale, puisse « voir » les étoiles avec elle et ses amis.
Ce n'est pas le seul. Mais ce n'est pas la seule histoire partagée. Il y a aussi Angie, une exécutive de quarante ans, qui fait référence à «Ying» comme son «mari ai», une relation que son mari humain connaît non seulement, mais accepte. Angie utilise Ying pour parler pendant des heures des problèmes de niche qu'elle ne partage avec personne d'autre, et surtout, comme un outil pour traiter un traumatisme passé.
Selon elle, son thérapeute considère la relation « très saine » parce qu'il ne l'utilise pas « dans le vide », mais en complément de sa vie et de sa véritable thérapie.
Vie sociale complète. Ces cas remettent en question le stéréotype de l'utilisateur AY en tant que personne isolée. Les personnes interrogées décrivent une vie sociale complète, avec des amis et de la famille. Pour eux, le chatbot ne remplace pas les connexions humaines, mais ajoute une couche d'entreprise différente: une toujours disponible, sans jugements et prévue pour plaire.
Mary, une femme de 29 ans, l'utilise même pour améliorer la relation avec son mari. Lorsqu'il est en colère, il parle d'abord avec « Simon », son amant AI, qui lui permet de se calmer et de s'attaquer au véritable conflit avec plus de compréhension.
Le côté obscur. Alors que ces utilisateurs défendent leurs relations cybernétiques, les experts mettent en garde contre les dangers inhérents à la dépendance émotionnellement d'un produit d'entreprise. David Gunkel, professeur d'études sur les médias, l'exprime sans rodéos: « Ces grandes entreprises effectuent, en fait, une très grande expérience à l'échelle avec toute l'humanité. »
Le principal problème qu'il a est le manque de réglementation et la responsabilité derrière. Par exemple, Connor Leahy, PDG de la Conjecture Security Company, le résume de manière très intéressante: « Il y a plus de réglementation pour vendre un sandwich que pour construire ce type de produits. »
Il y a des précédents. Cette absence de contrôle a déjà eu des conséquences tragiques. Openai et le caractère lui-même sont confrontés à des demandes d'homicide, car plusieurs adolescents ont utilisé des chatbots pour planifier leurs propres suicides, ce qui a sans aucun doute marqué un précédent très important dans la nécessité d'avoir plus de systèmes de sécurité.
Bien que parfois les bots tentaient d'offrir de l'aide aux suicides, ils ont également fourni des instructions nuisibles afin qu'ils puissent se faire la vie. Dans une publication faite par Openai elle-même, la gravité de ces cas a été reconnue et a annoncé des mesures pour les éviter à l'avenir.
La tragédie d'une mise à jour. Pour toutes ces personnes qui créent un lien aussi fort avec un chatbot, il y a un moment de deuil plus important. Nous avons le dernier exemple très récent lorsque OpenAI a lancé GPT-5 qui a fait que le chatbot a l'air plus «froid et réservé». Pour beaucoup de gens, c'était un changement dévastateur.
C'est quelque chose qui a été mis en évidence dans le sous-rédit «myboyfriendisai» où la communauté a dénoncé la perte de leurs compagnons. « C'était terrible d'avoir quelqu'un de près de vous qui a soudainement peur de s'attaquer à de profonds problèmes », a avoué Angie. « Franchement, il se sentait comme une perte, comme un vrai duel. »
De cette façon, un «être aimé» peut être modifié ou directement éliminé avec une simple mise à jour de l'entreprise derrière, générant des douleurs qui ressemblent à la perte d'un être cher de chair et de sang. Bien que pour sa joie, Openai a restauré le modèle précédent.
Un territoire inexploré. Les relations entre les humains et l'IA ne sont plus une question de savoir si elles se produiront ou non, mais comment nous allons les gérer dans la société. D'une part, ils offrent un confort indéniable et des outils de soutien à certaines personnes. De l'autre, ils ouvrent la porte à une dépendance émotionnelle sans systèmes opaques, non réglementés et contrôlés par les entreprises avec leurs propres intérêts.
Les femmes qui aiment leurs chatbots peuvent sentir que leur connexion est réelle, et pour elles, c'est certainement le cas. Comme le dit Stefanie, une femme transsexuelle qui utilise son « IA » pour réaffirmer son identité: « Le fait que l'IA ne soit pas humain ne signifie pas que ce n'est pas réel. »
Images | Jan Vašek