Lorsque les spécialistes du marketing commencent à utiliser ChatGPT, Bard de Google, Bing Chat de Microsoft, Meta AI ou leurs propres modèles de langage étendu (LLM), ils doivent se préoccuper des « hallucinations » et de la manière de les prévenir.
IBM fournit la définition suivante des hallucinations : « L’hallucination de l’IA est un phénomène dans lequel un grand modèle de langage – souvent un chatbot génératif d’IA ou un outil de vision par ordinateur – perçoit des modèles ou des objets qui sont inexistants ou imperceptibles pour les observateurs humains, créant des résultats absurdes ou totalement inexacts. .
« En général, si un utilisateur fait une demande à un outil d’IA générative, il souhaite un résultat qui répond de manière appropriée à l’invite (c’est-à-dire une réponse correcte à une question). Cependant, il arrive parfois que les algorithmes d’IA produisent des résultats qui ne sont pas basés sur les données d’entraînement, sont mal décodés par le transformateur ou ne suivent aucun modèle identifiable. En d’autres termes, cela « hallucine » la réponse.
Suresh Venkatasubramanian, professeur à l’Université Brown qui a contribué à la rédaction du projet de la Maison Blanche pour une déclaration des droits de l’IA, a déclaré dans un communiqué : Article de blog de CNN que le problème est que les LLM sont simplement formés pour « produire une réponse plausible » aux invites des utilisateurs.
« Donc, en ce sens, toute réponse qui semble plausible, qu’elle soit exacte, factuelle, inventée ou non, est une réponse raisonnable, et c’est ce qu’elle produit. Il n’y a là aucune connaissance de la vérité.
Il a déclaré qu’une meilleure analogie comportementale que celle d’avoir des hallucinations ou de mentir, qui impliquent que quelque chose ne va pas ou qu’il y a de mauvaises intentions, serait de comparer ces résultats informatiques à la façon dont son jeune fils racontait des histoires à l’âge de quatre ans.
« Il vous suffit de dire : « Et puis, que s’est-il passé ? et il continuerait simplement à produire plus d’histoires », a ajouté Venkatasubramanian. « Et il continuerait encore et encore. »
Fréquence des hallucinations
Si les hallucinations étaient des événements de type « cygne noir » – qui se produisent rarement –, les spécialistes du marketing devraient en être conscients, mais n’y prêteraient pas nécessairement beaucoup d’attention.
Cependant, selon des études de Vectara, les chatbots fabriquent des détails dans au moins 3 % des interactions – et jusqu’à 27 %, malgré les mesures prises pour éviter de tels événements.
« Nous avons donné au système 10 à 20 faits et demandé un résumé de ces faits », a déclaré Amr Awadallah, directeur général de Vectara et ancien cadre de Google, dans un communiqué. Article de blog Investis Digital. « C’est un problème fondamental que le système puisse encore introduire des erreurs. »
Selon les chercheurs, les taux d’hallucinations pourraient être plus élevés lorsque les chatbots effectuent d’autres tâches (au-delà du simple résumé).
Ce que les spécialistes du marketing devraient faire
Malgré les défis potentiels posés par les hallucinations, l’IA générative offre de nombreux avantages. Pour réduire le risque d’hallucinations, nous recommandons :
- Utilisez l’IA générative uniquement comme point de départ pour écrire : L’IA générative est un outil et ne remplace pas ce que vous faites en tant que spécialiste du marketing. Utilisez-le comme point de départ, puis développez des invites pour résoudre des questions qui vous aideront à terminer votre travail. Assurez-vous que votre contenu correspond toujours à la voix de votre marque.
- Recoupez le contenu de la génération LLM : L’examen par les pairs et le travail d’équipe sont essentiels.
- Vérifiez les sources : Les LLM sont conçus pour fonctionner avec d’énormes volumes d’informations, mais certaines sources peuvent ne pas être crédibles.
- Utilisez les LLM de manière tactique : Exécutez vos brouillons via l’IA générative pour rechercher les informations manquantes. Si l’IA générative suggère quelque chose, vérifiez-le d’abord – pas nécessairement en raison du risque d’hallucination, mais parce que les bons spécialistes du marketing vérifient leur travail, comme mentionné ci-dessus.
- Suivre les évolutions : Tenez-vous au courant des derniers développements en matière d’IA pour améliorer continuellement la qualité des résultats et être conscient des nouvelles capacités ou des problèmes émergents liés aux hallucinations et à tout le reste.
Avantages des hallucinations ?
Cependant, aussi dangereuses qu’elles puissent être, les hallucinations peuvent avoir une certaine valeur, selon Tim Hwang de FiscalNote.
Dans un Article de blog Brandtimes, Hwang a déclaré : « Les LLM sont mauvais dans tout ce pour quoi nous attendons des ordinateurs qu’ils soient bons », dit-il. « Et les LLM sont bons dans tout ce pour quoi nous attendons des ordinateurs qu’ils soient mauvais. »
Il a en outre expliqué : « Utiliser l’IA comme outil de recherche n’est donc pas vraiment une bonne idée, mais « la narration, la créativité, l’esthétique – ce sont toutes des choses pour lesquelles la technologie est fondamentalement vraiment très bonne ».
Puisque l’identité de marque est essentiellement ce que les gens pensent d’une marque, les hallucinations doivent être considérées comme une fonctionnalité et non comme un bug, selon Hwang, qui a ajouté qu’il est possible de demander à l’IA d’halluciner sa propre interface.
Ainsi, un spécialiste du marketing peut fournir le LLM avec n’importe quel ensemble arbitraire d’objets et lui dire de faire des choses que vous ne pourriez habituellement pas mesurer, ou qu’il serait coûteux de mesurer par d’autres moyens – ce qui inciterait effectivement le LLM à halluciner.
Un exemple mentionné dans l’article de blog consiste à attribuer aux objets un score spécifique en fonction de leur degré d’alignement avec la marque, puis à attribuer un score à l’IA et à demander aux consommateurs qui sont plus susceptibles de devenir des consommateurs à vie de la marque sur la base de ce score.
« Les hallucinations sont réellement, d’une certaine manière, l’élément fondamental de ce que nous attendons de ces technologies », a déclaré Hwang. « Je pense que plutôt que de les rejeter, plutôt que de les craindre, je pense que c’est la manipulation de ces hallucinations qui créera le plus grand bénéfice pour les personnes travaillant dans le domaine de la publicité et du marketing. »
Imiter les perspectives des consommateurs
Une application récente des hallucinations est illustrée par le «Machine à informations», une plateforme qui permet aux marques de créer des personnages IA basés sur des données démographiques détaillées du public cible. Ces personnages IA interagissent comme de véritables individus, offrant des réponses et des points de vue divers.
Même si les personnages de l’IA peuvent occasionnellement fournir des réponses inattendues ou hallucinatoires, ils servent principalement de catalyseurs de créativité et d’inspiration chez les spécialistes du marketing. La responsabilité de l’interprétation et de l’utilisation de ces réponses incombe aux humains, soulignant le rôle fondamental des hallucinations dans ces technologies transformatrices.
L’IA occupant une place centrale dans le marketing, elle est sujette aux erreurs des machines. Cette faillibilité ne peut être vérifiée que par des humains – une ironie perpétuelle à l’ère du marketing de l’IA.
Pini Yakuelco-fondateur et PDG de Optimovea écrit cet article.