Le débat sur les « hallucinations » de l'intelligence artificielle, ces réponses sûres, mais complètement fausses qui génèrent des modèles de langage, sont sur la table depuis le boom de Chatgpt. Alors que certains consultants et auto-proclamés Gurús ont promis des solutions magiques pour les éliminer, les experts les plus prudents ont mis en garde contre leur nature inhérente.
Maintenant, Openai, dans un exercice de transparence, a réglé le débat avec un nouveau Papier Cela confirme ce que beaucoup soupçonnaient: les hallucinations sont, pour l'instant, un mal nécessaire.
Comme un test de type. Pour le comprendre, OpenAI propose une analogie très claire: un examen avec plusieurs options. Si un élève ne connaît pas la réponse, le laisser dans la plante garantit que ni l'un ni l'autre ne soustrait le score (car il peut être facilement suspendu au hasard). Mais dans le cas de l'intelligence artificielle, il risque toujours la réponse qu'il donne parce qu'il ne peut pas dire «je ne sais pas» comme si cela se produisait avec un étudiant.
Si vous avez quatre options à l'avance, il y a 25% de chances d'obtenir cette petite faille et cela s'accroche à l'intelligence artificielle de Chatgpt pour offrir une réponse. Et la faute est des systèmes d'évaluation des intelligences artificielles. Ceux-ci tant qu'ils donnent une réponse, bien qu'ils soient littéralement inventés.
Un modèle qui dit « Je ne sais pas » est pénalisé, tandis que celui qui « devine » et a raison par hasard est récompensé. À grande échelle, cela crée des modèles qui hiérarchisent pour donner une réponse, n'importe qui, plutôt que d'admettre leur propre incertitude.
Openai lui-même explique avec un exemple ce qui se passe. Cela souligne que si nous supposons qu'un modèle est invité à deviner la date d'anniversaire d'une personne, il a une possibilité de 365 pour avoir raison. Dire «Je ne sais pas» garantit zéro points.
Que dit l'expert. Leon Palafox, professeur à l'Université Pan American Mexico, indique X à ce qui suit:
Selon un nouveau journal OpenAI, les hallucinations sont inévitables dans les LLM. Il n'y a aucun moyen théorique de les éliminer – à moins que nous acceptions que le modèle dit « je ne sais pas ». Et pourtant, à des étapes ouvertes, ils continueront à apparaître. Alors rappelez-vous cela la prochaine fois qu'un consultant vous dira qu'il peut « éliminer » les hallucinations. Ils peuvent être gérés. Mais les éradiquer complètement … ce n'est pas ainsi que cette technologie fonctionne.
Les données. À travers une table d'illustrateur en elle Papier, Openai voulait comparer les taux d'erreur de ses principaux modèles de l'IA. Et bien que l'ancien modèle (04-moins) ait un taux de réussite légèrement plus élevé, son taux d'erreur est extrêmement plus élevé, 75%. Tout cela parce qu'il ne s'abstient presque jamais de répondre ou de dire «je ne sais pas».
Le nouveau modèle, bien qu'il soit un peu moins, est beaucoup plus fiable car « sait » quand il ne connaît pas la réponse et que son taux d'hallucinations s'effondre à 26%. Le problème est que les tables de classification et les repères qui dominent l'industrie continuent de récompenser la première stratégie, celle du « Fortunate Fortune Teller ».
L'origine du problème. Pour pouvoir comprendre pourquoi vous devez savoir comment fonctionne une IA: avec la prédiction du mot suivant. Les grands modèles suivent un processus de formation très important où de grandes quantités de textes sont analysées. Cela fait, par exemple, qu'il est très rare pour une IA de commenter l'orthographe car elle suit des règles cohérentes. Et en tout temps, l'IA prédit le mot suivant lors de la génération d'un excellent texte.
« Contrairement aux problèmes d'apprentissage automatique traditionnels, il n'y a pas d'étiquettes« vraies / fausses »attachées à chaque déclaration. Le modèle ne voit que des exemples positifs de langage fluide et devrait aborder la distribution générale. » Explique Openai.
Cependant, les données factuelles, telles que la date de naissance d'une personne ou le titre de thèse de doctorat, sont arbitraires. Ils ne suivent pas un modèle prévisible. Lorsqu'un modèle n'a pas de fait spécifique, au lieu de s'arrêter, sa formation le pousse à « remplir le trou » avec la séquence de mots qui semble plus statistiquement plausible. Le résultat est une réponse qui semble convaincante, mais c'est faux.
Gérer, pas éliminer. La conclusion d'Openai est claire et résonne avec l'avertissement de Palafox: nous devons être sceptiques devant quiconque promet « d'éliminer » les hallucinations. La solution ne passe pas par des modèles plus importants dans l'espoir que la précision atteint 100% (quelque chose d'impossible, car il y a des questions intrinsèquement incontestables), mais pour changer le paradigme.
La clé est de récompenser «l'humilité» de l'IA. Il est nécessaire de repenser les mesures d'évaluation afin que les erreurs confiantes et de donner de la valeur aux abstentions durement. Comme le l'indique OpenAI, « un petit modèle peut mieux connaître ses limites ». De cette façon, la solution passerait essentiellement le fait que l'IA reconnaît qu'il ne sait pas quelque chose avant de générer quelque chose d'inventé «à accomplir».
Les mythes ont démoli. L'article d'Openai souligne la nécessité de démanteler certaines idées préconçues sur ce problème. Certains de ces mythes sur les hallucinations sont les suivants:
- « Les hallucinations disparaîtront lorsque la précision atteindra 100% »: en réalité, la précision n'atteindra jamais à 100% car il y a des questions intrinsèquement impossibles à répondre.
- « Ils sont inévitables »: pour Openai, ces erreurs ne sont pas parce que les modèles peuvent être formés pour s'abstenir lorsqu'ils ne sont pas sûrs, bien qu'ils ne l'ont pas encore fait.
- « Les éviter nécessite des modèles gigantesques. »
Les gourous continuent de «résoudre». Bien qu'Openai lui-même, l'une des plus grandes entreprises de ce domaine, reconnaît que les hallucinations sont réelles et qu'aujourd'hui les réseaux sociaux ne peuvent pas être contrôlés, elles sont remplies d'experts défendant le contraire.
Paradoxalement, le même jour qu'Openai a publié ceci Papierun utilisateur a partagé une invite créée afin que le chatppt ne puisse jamais halluciner. Et depuis cela, il y a beaucoup de gens qui croient être des experts authentiques dans l'IA et qui ont plus de connaissances que les ingénieurs de modèles tels que GPT. Mais avant cette affaire, vous devez vous méfier de toutes les invites «miraculeuses» qui peuvent être vues sur les réseaux sociaux.