« Workslop », des documents bureautiques générés par l'IA qui réduisent la productivité au lieu de l'augmenter

L’IA générative a longtemps été présentée comme l’outil qui transformera à jamais le travail lié à la gestion des connaissances. L'idée était que cela automatiserait les tâches répétitives, accélérerait les rapports, rédigerait des e-mails, préparerait des présentations et libérerait notre temps pour des tâches plus exigeantes intellectuellement.

Cependant, à mesure que l’adoption de ces outils se généralise, un phénomène inattendu est également apparu : l’apparition de chantierun terme qui décrit le contenu généré par l'IA qui a l'air professionnelmais vraiment manque de vraie substance: simple verbiage caché sous une rhétorique d’entreprise hautement professionnelle.

Cette nouvelle avalanche de « bruit numérique » ne fait que nuire à la productivité, éroder la confiance et créer plus de travail qu'elle n'en élimine.

Un problème croissant : l’explosion des contenus vides

Selon une étude récente du MIT, 40 % des employés américains ont déclaré avoir reçu du contenu généré par l'IA qui « ressemble à du bon travail, mais ne permet pas de progrès significatif sur une tâche donnée ».

Ce type de matériel est non seulement inutile, mais détruit la productivité : chaque morceau de travail nécessite près de deux heures de révision et de correction avant de pouvoir être utile au minimum, ce qui représente une perte annuelle de 9 millions de dollars pour une entreprise de 10 000 salariés.

Le problème ne se limite pas à un seul pays ou à quelques entreprises. Des études mondiales montrent que 66 % des travailleurs qui utilisent l’IA font confiance à ses résultats sans les vérifier. Parmi eux, beaucoup envoient du contenu directement à des collègues ou à des clients, créant ainsi un cercle vicieux : l'IA produit un texte vide, quelqu'un le révise ou le réécrit, du temps est perdu et l'efficacité globale de l'équipe se détériore.

Parallèlement, le MIT Media Lab conclut que 95 % des entreprises ne voient aucun retour mesurable sur leurs investissements dans l'IA générative : McKinsey constate que 80 % d'entre elles n'ont constaté « aucun impact significatif » sur les résultats. Ce qui est surprenant n’est pas que l’IA échoue dans certains cas : c’est qu’elle échoue systématiquement lorsqu’elle est déployée sans stratégie ni contrôle.

Comment distinguer les « travaux » du contenu utile

Même si cela peut parfois être difficile, il existe des signes clairs :

  • Trop générales ou vagues : phrases qui ressemblent à du remplissage d'entreprise.
  • Manque de données ou de preuves concrètes.
  • Répétitions inutiles tout au long du texte.
  • Des conclusions évidentes sans analyse préalable.
  • Ton excessivement neutre ou générique.
  • Absence de valeur actionnable : le lecteur finit par ne pas savoir quoi faire.

Plus le texte semble « parfait », plus il vaut la peine de se demander s’il dit vraiment quelque chose.

Pourquoi les travaux sont si nocifs

  • Il transfère l'effort cognitif de l'expéditeur au destinataire : le principal problème du « workslop » est qu'il « maxime la charge extrinsèque du récepteur tout en minimisant l'effort de l'expéditeur ». Avant, lorsqu'une personne rédigeait un rapport, elle était obligée de réfléchir, de structurer ses idées, de décider de ce qui était essentiel et de ce qui restait. Mais désormais, de nombreux employés confient ce processus de réflexion à l’IA sans avoir réfléchi au contenu.
  • Cela érode la confiance entre collègues de bureau : l'impact des « travaux » n'est pas seulement économique, mais aussi social ; et 53 % des travailleurs se sentent contrariés après avoir reçu contenu de la tâche de travail…et 42% considèrent que l'expéditeur est moins digne de confiance (beaucoup perçoivent leurs collègues comme « moins créatifs ou moins capables » après avoir reçu ce type de contenu de leur part).
  • Génère une « taxe invisible » sur la productivité : chaque fois qu'un document généré par l'IA arrive sans supervision humaine, le destinataire doit investir du temps (1 heure et 56 minutes en moyenne pour chaque « travail ») pour : vérifier les données, reconstruire la logique, corriger les incohérences, adapter le contenu au contexte réel.

Le problème n’est pas l’IA, mais la façon dont elle est utilisée

Cependant, le responsable ultime de ce phénomène n’est pas le logiciel, mais les employeurs qui le mettent en œuvre sans :

  • des normes claires,
  • les politiques d'utilisation,
  • entraînement,
  • métriques d'évaluation,
  • encadrement technique ou humain.

L’enthousiasme technologique a conduit de nombreuses entreprises à adopter l’IA simplement pour « ne pas être laissées pour compte », sans plan sur la manière de l’intégrer efficacement. Dans certains cas, les salariés sont contraints de l’utiliser, même s’ils ne savent pas quand il est approprié ni comment en évaluer les résultats.

L’IA fonctionne très bien… pour le trivial

Les données montrent que l'IA augmente la productivité lorsqu'elle est utilisée pour des tâches simples : e-mails de routine, résumés de base ou génération de brouillons préliminaires. 70% des salariés préfèrent l'utiliser pour ces tâches, selon le rapport Division GenAI du MIT.

Dans ces cas-là, il est vrai que l’IA libère une « charge cognitive » et permet de se concentrer sur ce qui compte vraiment. Mais lorsqu’il est utilisé pour des tâches complexes qui nécessitent une compréhension approfondie, une mémoire contextuelle ou un raisonnement fin, il échoue dans 70 % des cas, selon les études de Carnegie Mellon.

Le problème se pose lorsque les organisations ignorent cette distinction.

Comment lutter contre les chantiers : des actions pour les salariés et les entreprises

  • Changer le comportement individuel : demandez d'abord (l'IA est-elle le bon outil pour cette tâche ?), vérifiez toujours (examinez, recoupez les données et testez le code ou le contenu) et soyez transparent (en expliquant quand et comment l'IA a été utilisée, en particulier dans les tâches critiques).
  • Améliorer les connaissances en IA : moins de la moitié des employés déclarent avoir reçu une formation en IA. Pour améliorer leur productivité, l’entreprise doit leur apprendre quand utiliser (et quand ne pas) l’IA, comment la surveiller et comment valider les résultats.
  • Mettre en œuvre des politiques claires : la gouvernance ne peut pas être facultative. Les entreprises ont besoin de : des stratégies d’IA claires, des managers désignés, des limitations et autorisations bien définies…

Images | Marcos Merino grâce à l'IA

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine