Le moment est venu : nous ne distinguons plus la musique générée par l'IA avec Suno de la vraie musique dans les tests à l'aveugle

Nous avons récemment franchi une étape importante sur Internet, selon l'analyse de Graphite.io : d'ici octobre 2025, 53,5 % des articles rédigés en ligne sont générés par l'IA, tandis que 46,5 % sont rédigés par des humains. C’est une tendance qui s’est beaucoup renforcée en 2022, avec le lancement de ChatGPT, et qui nous prévient de ce qui s’annonce sur d’autres fronts, comme celui de la musique.

En ce sens, l'intelligence artificielle de Suno AI nous surprend depuis longtemps. Il y a plus d'un an, avec Suno V3, nous voyions déjà l'énorme potentiel qu'avait cette technologie pour rire, oui, mais aussi pour démontrer ce qui allait arriver. Et à l’Université fédérale du Minas Gerais, ils ont démontré où nous en sommes avec l’article Echoes of Humanity : Exploring the Perceived Humanness of AI Music.

L'IA musicale réussit déjà le test de Turing

La première chose qu’ils ont faite dans l’étude a été de choisir des paires de chansons pour plus de 600 participants. Ainsi, ils écoutaient l’IA et les chansons humaines sans savoir lesquelles. Lorsque les chansons de chaque paire étaient aléatoires, c'est-à-dire lorsque les deux chansons ne partageaient pas de style ou de similitude, les auditeurs ont réussi au hasard, environ 50 %.

Les choses ont changé lorsque les chansons partageaient un style : dans ce cas, la capacité de détecter la chanson générée par l'IA a augmenté de 13 %. Une autre découverte intéressante, et quelque peu attendue, est que les personnes ayant plus de cinq ans d'expérience musicale étaient beaucoup plus susceptibles de deviner quelle musique était synthétique. Les auditeurs plus âgés sans formation pratique avaient moins raison. Et il n’y avait aucune corrélation entre le fait d’être plus ou moins correct avec les différents styles.

Pour comprendre le « comment », les auteurs ont analysé des centaines de commentaires des participants. Les indices les plus courants (qui permettaient d’identifier plus facilement si la chanson était humaine ou non) se trouvaient dans le chant. Le ton « robotique » ou contre nature a beaucoup marqué la décision. Également dans les détails techniques du mixage et de la production, tels que les erreurs superficielles, les mélanges parfaits ou les égalisations plates. Concernant les paroles, certains ont noté des incohérences ou une simplicité, mais dans l’ensemble, les schémas étaient subtils : les participants ont reconnu que « les deux chansons auraient pu être humaines ».

Les conclusions sont importantes pour l’industrie musicale : elles indiquent que dans de nombreux cas, notamment lors d’une écoute occasionnelle, la musique générée par l’IA a déjà atteint un niveau impossible à distinguer de la musique humaine. Au point que des choses comme celle expliquée par Flo Crivello sur Twitter se produisent : « Ma copine a récemment découvert que le groupe qu'elle vient de découvrir et qu'elle aime tant sur Spotify est en fait généré avec l'IA. » La tendance va beaucoup s'accentuer si OpenAI entre enfin sur le marché de la musique créée avec l'IA, comme le souligne son projet, encore en phase expérimentale.

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine