Quatre experts en IA sont très critiques à l'égard d'OpenAI et de la manière dont se développe l'intelligence artificielle : une technologie entre quelques mains

L'intelligence artificielle dispose d'outils largement utilisés et nous surprend constamment avec de nouvelles technologies. À l’heure où l’Intelligence Artificielle progresse à une vitesse vertigineuse et promet de transformer tous les domaines de la vie, d’autres préoccupations grandissent également. Par exemple, si cela va détruire des emplois ou si l’IA est entre les mains d’un très petit nombre de millionnaires.

Diverses voix éminentes du monde de l’IA avertissent que le développement actuel est entre les mains d’une poignée de grandes entreprises et de milliardaires, qui imposent une vision technocratique, hiérarchique et peu inclusive. Loin d’un progrès destiné au bien commun, ces experts dénoncent une concentration de pouvoir sans précédent qui peut présenter un grand risque.

La nécessité d’échapper à une seule IA verticale qui gère tout

Audrey Tang est pirate informatique et est ministre du numérique de Taiwan depuis dix ans. Son objectif est de faire d'Internet un lieu plus sûr dans lequel les services qu'il propose sont au service des citoyens et non l'inverse. L’une des grandes critiques qu’on nous propose du développement de l’IA est que l’on assiste au développement d’une ou de quelques « superintelligences artificielles verticales ».

Son idée est qu'il devrait y avoir des infrastructures de sécurité décentralisées, transparentes et participatives pour offrir aux gens une intelligence collective horizontale, des systèmes d'assistance qui renforcent la capacité d'action humaine.

L’IA est entre les mains d’entreprises qui privilégient les profits plutôt que la sécurité

Geoffrey Hinton, lauréat du prix Nobel en 2024 et l'un des pères fondateurs du « deep learning », base de l'IA actuelle, est l'une des voix les plus influentes dans ce domaine technologique depuis plusieurs décennies. Mais depuis son départ de Google en 2023, il assume un nouveau rôle : celui d’un porte-parole critique des risques existentiels posés par l’IA.

Dans une récente conférence (disponible sur YouTube), Hinton a clairement exprimé son scepticisme quant à certaines des techniques les plus largement utilisées pour « aligner » les systèmes d'IA sur les valeurs humaines. Parmi eux, celui dit RLHF occupe une place centrale dans sa critique. RLHF (renforcement learning from human feedback) est une technique par laquelle un modèle de langage (tel que GPT-4o) est formé non seulement avec des données textuelles brutes, mais également grâce à une intervention humaine.

Hinton est l’un des pionniers de l’apprentissage profond et est passé du stade de promotion de l’IA à celui d’alerte sur ses dangers. Il critique le fait que le développement soit entre les mains de grandes entreprises (telles que certaines grandes entreprises technologiques) qui privilégient la concurrence commerciale plutôt que la sécurité. Il prévient également que la « course à l’IA » pourrait laisser de côté des risques existentiels, tels que le chômage de masse et la concentration des richesses : « Musk deviendra plus riche et de nombreuses personnes seront au chômage. »

L'IA est « stupide »

Yann LeCun (considéré comme l'un des « parrains de l'IA », avec Hinton, et lauréat du Turing Award) a confirmé ce que beaucoup soupçonnaient depuis que Meta a embrassé l'ère de la superintelligence : il quitte l'entreprise. Il l'a annoncé il y a quelques jours.

Le départ intervient dans un contexte de tension philosophique. LeCun prévient depuis des années que l'IA générative actuelle est « très stupide » et que des modèles comme le GPT-4 ne sont pas plus intelligents qu'un chat domestique. Alors que la Silicon Valley et Meta elles-mêmes investissent des milliards dans la mise à l’échelle des LLM en collectant davantage de données et de puissance de calcul, LeCun maintient que cette stratégie est une impasse.

Pour lui, les LLM ne résolvent pas de vrais problèmes, mais se limitent à prédire un texte sur la base de probabilités sans comprendre la réalité. Avec cette approche, Lecun a perdu du poids interne par rapport à des personnalités comme Alexandr Wang et d’autres recrues de l’équipe de superintelligence.

Concentration extrême du pouvoir, de la richesse et du contrôle

Jaime Sevilla est un chercheur espagnol, fondateur d'Epoch AI, une organisation dédiée à l'analyse et à la prévision de l'évolution de l'IA, qui a mis en garde contre des scénarios dans lesquels « 99 % des ressources finiront entre les mains de l'IA ».

Sa vision évoque une possible concentration extrême du pouvoir, de la richesse et du contrôle entre les mains de ceux qui maîtrisent les systèmes d’IA. Cela pourrait provoquer une profonde fracture sociale, avec peu de privilégiés et beaucoup d’exclus.

En outre, il prévient que de nombreuses utilisations de l’IA pourraient être néfastes : non seulement en raison du chômage, mais aussi en raison de son potentiel d’activités malveillantes (fraude, manipulation, etc.).

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine