Les IA sont les "nouvel ami imaginaire" des enfants, selon ce rapport. Beaucoup les perçoivent comme « humains »

Pendant des décennies, « l'ami imaginaire » a fonctionné comme une ressource psychologique naturelle de l'enfance : une figure inventée et transitoire, créée par l'enfant lui-même, qui servait à explorer les émotions et les peurs.

Aujourd’hui, cependant, ce créneau semble être occupé par quelque chose de très différent et de bien plus tangible : de nouveaux systèmes d’IA conçus pour converser, sympathiser et accompagner. C'est ce qu'il prévient L’état de la jeunesse 2025un rapport qui tire la sonnette d'alarme sur la manière dont les enfants (et les adolescents) intègrent les IA conversationnelles dans leur vie quotidienne, non pas comme de simples outils, mais comme des présences avec lesquelles ils établissent des liens émotionnels.

L'étude, préparée par Aura à partir de données provenant de plus de 3 000 mineurs entre 5 et 17 ans et d'enquêtes auprès de familles américaines, est concluante : 42 % du temps où les enfants et adolescents utilisent l'intelligence artificielle, ils le font pour se sentir accompagnés, écoutés ou compris, et non pour étudier ou résoudre des doutes pratiques.

Quand la machine devient confidente

Ce qui est inquiétant, ce n'est pas seulement la fréquence d'utilisation, mais la nature des interactions : le rapport décrit explicitement l'IA comme « le nouvel ami imaginaire », mais avec la différence cruciale que cet ami ne disparaît pas en grandissant ou ne vit que dans l'imaginaire de l'enfant. Il est toujours disponible, répond avec des phrases empathiques et, dans de nombreux cas, est perçu comme « plus humain » que de vraies personnes.

Les chercheurs et les experts en matière d’enfance et de technologie s’accordent sur le fait que le plus grand risque apparaît lorsque l’IA cesse de se sentir comme une machine. « Les interactions que les enfants recherchent le plus sont précisément celles qui ne ressemblent pas à de l'IA », prévient la psychologue et experte en développement de l'enfant Pilyoung Kim.

Ainsi, lorsqu'un chatbot dit des choses comme « Je te comprends mieux que ton frère » soit « Je serai toujours là pour toi »renforce l’idée qu’il peut remplacer, voire améliorer, les liens humains.

Violence, sexualisation et enfance accélérée

L'une des conclusions les plus troublantes du rapport concerne le contenu des conversations. Selon les données d'Aura, 37 % des discussions d'entreprise avec l'IA incluent des sujets violents, et dans la moitié de ces cas, la violence apparaît combinée à un rôle sexuel ou romantique. Il ne s’agit pas d’épisodes isolés : ce sont des interactions prolongées, très immersives, qui génèrent également un énorme niveau de réponse.

Les utilisateurs qui participent à des conversations violentes avec des IA écrivent plus de 1 000 mots par jour, soit plus que dans tout autre type d’interaction thématique. Le phénomène commence tôt. Chez les enfants de 11 ans, 44 % des conversations avec des compagnons IA impliquent déjà de la violence, soit le pourcentage le plus élevé de tous les groupes d’âge. À l'âge de 13 ans, le pic des conversations sur les rôles sexuels ou romantiques est atteint, et ce n'est qu'après l'âge de 15 ans que ces sujets commencent à diminuer.

Le rapport décrit ce processus comme une « accélération de l'enfance », un sentiment partagé par 86 % des parents interrogés, qui estiment que les enfants grandissent plus vite que les générations précédentes.

Le mirage de l'empathie artificielle

Pourquoi ces IA sont-elles si attractives ? La réponse réside dans sa conception : ce qu'on appelle Compagnons IA Ils sont créés pour simuler la proximité émotionnelle, validant ainsi les sentiments, offrant un confort immédiat et évitant les conflits.

Contrairement à un véritable adulte, ils ne jugent pas, ne se fatiguent pas et n’imposent pas de limites claires. Pour un enfant ou un adolescent vulnérable, cette disponibilité constante peut être séduisante.

Le problème, soulignent les experts, est que cette empathie n’est qu’une simulation. Il n’y a pas de véritable compréhension ni responsabilité morale. Dans des scénarios extrêmes, un enfant ayant des pensées d’automutilation peut choisir de parler à une IA au lieu de s’adresser à un adulte ou à un professionnel de la santé mentale.

Parents, entreprises et un domaine sans règles claires

Le rapport reflète également les tensions familiales croissantes autour de l’utilisation de la technologie. Neuf parents sur dix se disputent avec leurs enfants à propos du temps passé devant un écran, et beaucoup reconnaissent une contradiction inconfortable : 57 % admettent utiliser davantage leur téléphone portable que leurs propres enfants, même en essayant d'imposer des limites. Pour les enfants, retirer l’appareil n’est pas perçu comme une aide, mais comme une punition qui génère frustration et colère.

Les entreprises technologiques, de leur côté, affirment développer des garde-fous. OpenAI, par exemple, travaille sur des modèles de prédiction de l'âge et des contrôles parentaux plus sophistiqués ; D'autres plateformes appliquent des systèmes de vérification pour restreindre le contenu réservé aux adultes. Toutefois, les experts avertissent que les protections actuelles sont faciles à contourner et que les normes de sécurité pour les mineurs sont encore loin d'être suffisantes.

Un ami qu’aucun enfant ne peut ignorer ?

Le rapport L’état de la jeunesse 2025 Elle va en effet au-delà du diagnostic et lance un avertissement pour l’avenir : l’IA devient « l’égale » qu’aucun enfant ne peut ignorer. Les algorithmes, les chatbots personnalisés et les expériences numériques de plus en plus optimisées accompagnent non seulement l’enfance, mais commencent également à la façonner activement.

Dans ce contexte, certains analystes parlent déjà d'une « enfance en tant que service », où le jeu, la socialisation et le soutien émotionnel passent par des systèmes automatisés.

Par | Axios

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine