La Chine a un plan pour empêcher les chatbots IA de manipuler les émotions. Ils proposent même de détourner la conversation vers les humains

La Chine prévoit d'empêcher les chatbots artificiellement intelligents d'influencer les émotions humaines d'une manière qui pourrait conduire au suicide, à l'automutilation ou même au jeu, selon un projet de règles rendu public cette semaine.

Les réglementations proposées par l'Administration du cyberespace pour les soi-disant « services d'IA interactifs avec des caractéristiques humaines », selon une traduction CNBC du document chinois, visent à développer des mesures à appliquer à l'avenir aux produits ou services d'IA offerts au public. Pour l’instant, il s’agit d’un projet et le règlement devrait être lancé ultérieurement. Les commentaires publics sont désormais acceptés jusqu’au 25 janvier.

Il y a quelques jours, nous avons vu comment une panne d'électricité à San Francisco a montré qu'en cas de problème, les voitures autonomes ont besoin d'une intervention humaine pour sortir du chaos ; Nous avons également collecté des histoires de personnes qui gagnent leur vie en résolvant des problèmes causés par l'IA… et maintenant nous savons qu'en Chine, si une personne a un sujet sensible à discuter, le plan sera d'exiger qu'une seule personne prenne les rênes de la conversation.

Réguler l’IA qui semble humaine mais ne l’est pas

Les chatbots, à la manière du ChatGPT si utilisé en Europe ou du célèbre DeepSeek chinois, qui simulent la personnalité humaine et impliquent émotionnellement les utilisateurs à travers du texte, des images, de l'audio ou de la vidéo… peuvent avoir de nombreuses conséquences négatives.

Après tout, ce ne sont pas des experts en psychologie humaine, mais plutôt des machines entraînées avec des millions de données diverses. Il existe déjà des cas de suicides d’adolescents provoqués par une IA et OpenAI a même été poursuivi pour cette raison.

Les règles prévues par Pékin marqueraient la première tentative au monde de réglementer l'IA ayant des caractéristiques humaines ou anthropomorphiques, comme l'explique Winston Ma, professeur agrégé à la faculté de droit de l'Université de New York. L'oaís dispose d'une réglementation pour l'IA générative à partir de 2023, mais selon l'expert, cette version « marque un saut de la sécurité des contenus à la sécurité émotionnelle ».

Les règles, publiées samedi pour consultation publique par l'Administration chinoise du cyberespace (CAC), obligeraient les fournisseurs à informer clairement les utilisateurs qu'ils interagissent avec une IA et non avec un humain.

Projet de clés

Comme le rapporte CNBC, le projet de règles propose que :

Quittez l’IA et passez aux humains. Les chatbots IA ne peuvent pas générer de contenu encourageant le suicide ou l'automutilation, ni se livrer à des violences verbales ou à des manipulations émotionnelles qui nuisent à la santé mentale des utilisateurs. Selon le projet, si un utilisateur propose spécifiquement de se suicider, les fournisseurs de technologie doivent demander à une personne de diriger la conversation et de contacter immédiatement le tuteur de l'utilisateur ou une personne désignée.

Fini le jeu. Les chatbots IA ne doivent pas générer de contenu lié aux jeux d’argent, ni de contenu à caractère obscène ou violent.

Contrôle des mineurs, sans les exclure. Les mineurs doivent avoir le consentement de leurs parents ou tuteurs pour utiliser l’IA à des fins de soutien émotionnel et il doit y avoir des limites quant à la durée d’utilisation, mais cela ne les exclut pas de l’utilisation de l’IA. Une autre approche est que les plateformes devront disposer de méthodes permettant de déterminer si un utilisateur est mineur même si elles ne révèlent pas leur âge.

Un rappel du temps. Une autre proposition est que les fournisseurs de technologie devront envoyer un rappel aux utilisateurs après deux heures d'interaction continue avec l'IA.

Promouvoir l’utilisation de l’IA pour la diffusion culturelle et l’accompagnement des personnes âgées. Le document encourage également l'utilisation de l'IA de type humain dans « la diffusion culturelle et le soutien aux personnes âgées ».

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine