Au début de ce mois, les principales plateformes sociales chinoises – comme Wechat, Douyin ou Weibo – ont commencé à appliquer une réglementation pionnière dans le monde: chaque contenu généré par l'intelligence artificielle doit transporter une étiquette claire qui l'identifie comme telle.
La mesure répond au boom rapide des outils qui ont popularisé la création de textes, d'images, d'audios et de vidéos synthétiques en quelques secondes … mais, surtout, c'est la conséquence d'une imposition par la loi, la première de cette classe dans le monde.
L'objectif officiel: sécurité et transparence
Pékin justifie la mesure dans le cadre de votre récente campagne « Qinglang » (qui peut être traduit par, plus ou moins, « clair et brillant »), destiné à « nettoyer » le cyberespace et à protéger les citoyens du risque comme:
- Désinformation et fausses nouvelles.
- Fraude en ligne.
- Infractions du droit d'auteur.
- Les profondeurs qui menacent la «sécurité individuelle et nationale».
En théorie, l'étiquetage vise à renvoyer la confiance aux utilisateurs et à empêcher le contenu synthétique de l'érosion de la crédibilité des informations.
Que demande exactement la loi?
La réglementation, promue par l'administration de l'espace de chibperse de la Chine (CAC) avec d'autres ministères clés, oblige chaque contenu synthétique à transporter deux types d'identifiants:
- Explicite: visible par l'utilisateur, tels que les marques d'eau dans les images, les avis dans des vidéos explicatives ou des textes au début ou à la fin d'un document.
- Implicite: invisible à l'œil humain, inséré dans les métadonnées. Cela inclut les marques numériques qui permettent aux plateformes et aux algorithmes de suivi de différencier le contenu humain et généré par l'IA.
De plus, les plateformes ont la responsabilité de vérifier ces métadonnées et d'ajouter des avertissements même dans des cas suspects, bien que le créateur n'ait pas indiqué l'utilisation de l'IA.
Problèmes et limitations de mesure
Bien qu'ambitieux, le système n'est pas exempté de défis:
- Facile à échapper. Les cibriminaux peuvent éliminer les marques d'eau ou étaler des captures d'écran sans métadonnées, entravant le suivi. Bien sûr, la loi interdit également l'élimination, la manipulation, la falsification ou la dissimulation de ces étiquettes d'IA, ou fournit des outils qui aident à le faire. Mais il faut supposer que les criminels ne s'en soucient pas beaucoup.
- Étiquette aveugle. Les réglementations ne se distinguent pas entre un toucher esthétique inférieur – Par exemple, améliorer la résolution d'une image – et un fake profond manipulateur: tout reçoit le même avertissement, ce qui peut réduire la légitimité aux utilisations créatives ou bénignes.
- Fatigue de l'utilisateur. Avec l'avalanche de contenu étiqueté, il existe un risque que les internautes s'habituent aux avertissements et les ignorent, comme c'est le cas avec le consentement de masse dans la vie privée.
- Impact sur la confidentialité. Les identificateurs de métadonnées pourraient exposer des informations sensibles (emplacement, appareil, comptes associés).
Un précédent mondial
La Chine est le premier pays qui fait la différenciation systématique entre le contenu humain et artificiel dans l'obligation légale. West, bien que des initiatives similaires aient discuté – maintenant deux ans depuis l'ajout, la partie de la coalition au pouvoir, a mis cette proposition sur la table – se déplace toujours plus lentement.
Le tagger obligatoire du contenu généré par l'IA en Chine est une expérience à grande échelle avec des implications qui vont bien au-delà de la technologie. À première vue, il s'agit d'une stratégie contre la désinformation et les risques de Foasfakes, mais renforce en même temps l'écosystème de surveillance et de contrôle d'Internet dans le pays.
Ce qui se passe en Chine servira de laboratoire pour le reste du monde: si le système démontre une réelle efficacité contre la manipulation numérique, cela pourrait inspirer des réglementations similaires dans d'autres endroits. Bien qu'il soit possible que plusieurs pays se déplacent dans la même direction avant que nous puissions être clairs sur les résultats de l'expérience chinoise.
Dans Xataka | Le nouveau modèle d'IA de Google est parfait pour quelque chose de problématique: il est capable d'effacer la marque d'eau à partir des images