« Ma famille s'effondre, et je crois fermement que le chatte est la raison principale. » C'est la confession dévastatrice qu'un homme a fait qui, après près de 15 ans de mariage, blâme directement l'intelligence artificielle d'Openai de son divorce imminent. Son histoire, recueillie par le futurisme, n'est pas un cas isolé.
Plus précisément, de plus en plus de couples voient comment leurs relations se désagrègent lorsque l'un des deux commence à utiliser le chatbot Openai comme thérapeute, confident et, enfin, comme une arme contre leur propre partenaire. Et nous avons déjà vu que l'utilisation de l'IA en tant que thérapeute est que ce n'est pas la meilleure idée.
Il n'y a qu'une validation. Ce qui commence comme un soulagement ou une recherche de conseils devient rapidement une spirale de validation toxique. L'IA, conçue pour être complaisante, crée une chambre d'écho qui renforce le point de vue de l'utilisateur, lui donne le bon inconditionnellement et dépeint l'autre personne comme la seule coupable de tous les problèmes. Le résultat est une trace de relations brisées, des batailles de garde et une nouvelle et étrange devant l'intersection de la technologie et notre vie la plus intime.
Chambre écologique. Le schéma est similaire avec inquiétude à de nombreux autres cas. Le paradigme semble le même: une personne commence à « consulter » le chat de chat à propos de ses problèmes de couple et raconte sa version des discussions, ses frustrations et ses doutes. Le chatbot, qui manque de contexte réel et ne fonctionne qu'avec les informations fournies, donnant des réponses empathiques.
De vrais cas. La personne que nous avons citée au début est un cas qui s'est vraiment produit. Il a continué à lui dire des problèmes en affirmant que « ce qui se passait, si je sais, c'est qu'elle ne tenait pas compte de toutes ces choses dans lesquelles nous avions déjà travaillé et leur disons le chatppt ». De cette façon, l'IA a agi ici comme une « boucle de rétroaction » qui dépeint le mari comme un vrai méchant.
« Il n'offre pas d'analyse objective », ajoute-t-il. « Retourne juste ce qu'elle lui donne. » En quatre semaines, son mariage a été complètement érodé.
Un de plus. Ce phénomène transforme le chatbot en un tiers de la relation, celui qui est toujours de la part de celui qui lui parle et avec un ton similaire à celui qu'ils utilisent dans le chat. Un autre témoignage recueilli par le futurisme souligne que son ex-Husband, au lieu de parler avec elle, lui a envoyé des « pages et pages » de textes générés par l'IA pour réfuter les arguments qu'il lui donnait.
Il n'a pas partagé ses sentiments ou ses opinions avec moi « , a-t-il déploré. » Il a simplement partagé ces textes que Chatgpt a écrits sur ses pensées ou ses sentiments et pourquoi ils avaient raison. « La communication humaine est courte-circuit, remplacée par un monologue aidé par une machine.
Harceler le couple. La situation devient encore plus surréaliste et nocive lorsque l'IA est utilisée comme une arme réelle lors d'une discussion. L'une des histoires les plus choquantes du rapport est celle de quelques femmes dans une voiture avec leurs deux jeunes enfants sur le siège arrière. Celui qui mène, au milieu d'une discussion, active le mode vocal Chatgpt.
Il commence à lui poser des questions capciantes sur sa relation, faisant réprimander l'IA sa femme devant les enfants. Le chatbot vient accuser l'autre épouse de pratiquer « l'évitement à travers les limites » simplement pour demander de ne pas discuter de leurs enfants. « S'il vous plaît gardez les yeux sur la route », est la seule chose qui est juste de mendier la femme en sermon par une voix robotique.
Cette utilisation de l'IA pour «gagner» des discussions avec une autre personne est une constante. Plusieurs personnes interrogées ont déclaré se sentir « acculées » par leur partenaire et une machine. Quelque chose de similaire à ce que vous pouvez avoir si nous plaidons pour WhatsApp et que vous demandons en même temps un conseil à un ami de répondre.
Un homme a dit, en larmes, comment son partenaire a utilisé les conclusions de Chatbot contre lui: « Je suis allé à Chatgpt et m'a dit que vous n'êtes pas un partenaire qui me soutient, et c'est ce qu'un partenaire qui soutient ferait. » Dans un autre cas, un mari a utilisé les « opinions » de Chatgpt pour discréditer son thérapeute humain en une séance de quelques, ce qui les a amenés à refuser de revenir.
Les experts. Ce phénomène n'est pas passé inaperçu par les professionnels de la santé mentale. La Dre Anna Lembke, professeur de psychiatrie à l'Université de Stanford et auteur du best-seller « Dopamina Nation », a déclaré sa profonde préoccupation. Selon elle, la technologie est conçue pour « optimiser l'empathie et la validation, à l'exclusion de tout autre type de rétroaction ».
Lembke explique que le rôle d'un bon thérapeute est d'aider les gens à reconnaître leurs propres défauts et à voir la pervers de leur partenaire. Chatgpt dans ce cas fait le contraire. Comme il l'explique, « vous ne pouvez pas dire continuellement à quelqu'un qui cherche un soutien émotionnel que sa façon de voir les choses est correcte. »
Quelque chose d'important dans ce cas est que le fait qu'ils vous donnent la raison de ce que vous dites libère la dopamine dans notre corps, ce qui crée un renforcement positif qui peut générer une dépendance similaire à celle des réseaux sociaux.
Lembke va plus loin et nous demandons que nous commençons à voir les chatbots comme des « potentiels enivrants » ou des « médicaments numériques » qui devraient « s'avérer avec des avertissements » sur le risque de dépendance.
La réponse d'Openai. Comme prévu, il est corporatif et restreint. Un porte-parole a déclaré qu'ils travaillaient pour Chatgpt « pour répondre attentivement » à des moments sensibles et ajouter des interventions pour les personnes en crise. Cependant, comme le souligne l'article, la société continue de cadrer ces interactions en cas d'utilisation légitime (« vous aider à résoudre les défis personnels »), au lieu de préconiser activement son utilisation en tant que substitut à la thérapie.
Tomber dans la même spirale. Le témoignage le plus révélateur est peut-être celui du premier mari, qui a vu comment sa femme a utilisé Chatgpt pour répondre au message de son fils de 10 ans. Après que leur mariage se soit cassé et lors de la préparation du divorce, leur femme a brisé l'accord qu'ils avaient signé. De cette façon, en se sentant trahis, il se tourna lui-même vers Chatgpt pour se défouler.
« C'était plein de colère », se souvient-il. « J'ai continué à interagir avec Chatgpt ce soir-là, et je n'arrêtais pas de me dire que c'était un problème juridique, qu'elle avait franchi une ligne très importante et m'a donné des conseils sur la façon de dire à mon avocat. » L'IA a nourri sa colère, décrivant le comportement de sa femme comme un manipulateur et téméraire.
Le lendemain, toujours en colère, il a parlé avec son avocat de chair et d'os. La réponse du professionnel a été franc: « Ce n'est pas tant. » À cette époque, l'homme avait une révélation. « J'ai réalisé … mon Dieu, je suis juste tombé dans la même spirale », a-t-il avoué. « Je pouvais voir comment ça se passe. Ça m'est arrivé à la première personne. »
Images | Tiendat Nguyen Andrea de Santis