L’inquiétude sociale concernant les progrès rapides de l’intelligence artificielle (IA) a cessé d’être un simple débat technique pour devenir une préoccupation mondiale. Et pour preuve, plus de 800 personnalités des domaines scientifique, politique, religieux et culturel – dont les pionniers de l'IA Geoffrey Hinton et Yoshua Bengio, le co-fondateur d'Apple Steve Wozniak, l'ancien stratège de Donald Trump Steve Bannon, ou encore le prince Harry et Meghan Markle – ont signé une lettre ouverte appelant à arrêter le développement de la « superintelligence », une forme d'IA actuellement hypothétique. capable de surpasser les humains dans toutes les tâches cognitives.
Le document rassemble des voix de presque tous les coins du spectre idéologique : des conservateurs comme Steve Bannon (ancien chef de cabinet de Donald Trump) et Glenn Beck aux progressistes comme Susan Rice (ancienne ambassadrice des États-Unis à l'ONU sous Obama), ou des personnalités religieuses comme le moine et conseiller du pape sur les questions d'IA, Paolo Benanti. Cinq lauréats du prix Nobel, l'homme d'affaires Richard Branson et l'acteur Stephen Fry se sont également joints à nous.
L'initiative, promue par le Institut du futur de la vie (FLI)ne demande pas de pause symbolique : il appelle à une interdiction totale du développement de systèmes superintelligents, qui ne sera levée que lorsqu'il y aura un « large consensus scientifique » sur leur sécurité et un soutien public vérifiable.
Le fossé entre la société et la grande technologie
La lettre coïncide avec la publication d'un rapport de Institut du futur de la viequi montre le mécontentement massif des Américains face à la rapidité du développement de l'IA, et conclut qu'il existe « un décalage évident entre la mission déclarée des grandes entreprises d'IA et les désirs du public ».
Le physicien Anthony Aguirre, directeur exécutif du FLI, a affirmé dans des déclarations à NBC que le problème n'est pas seulement technique, mais aussi démocratique :
« Cette voie a été choisie par les entreprises et le système économique qui les anime, mais presque personne n'a demandé au reste de l'humanité si c'était ce que nous souhaitions. »
Ainsi, alors que des entreprises telles qu'OpenAI, Google, Meta et xAI rivalisent pour atteindre ce que l'on appelle l'AGI (ou « IA générale »), les citoyens demandent prudence, transparence et contrôle. Selon l'enquête, réalisée entre le 29 septembre et le 5 octobre 2025,
- 64 % des adultes pensent que la superintelligence ne devrait pas se développer tant qu’elle n’est pas sûre et contrôlable.
- 69 % des Américains pensent que le gouvernement n’en fait pas assez pour réglementer l’IA.
- Plus de la moitié se méfient des entreprises technologiques quant à leur capacité à développer des technologies de manière responsable.
- 73 % réclament une réglementation stricte.
- Seuls 5 % soutiennent le statu quo, soit un progrès rapide et non supervisé.
Les entreprises accélèrent, les experts demandent de ralentir
Pendant ce temps, la course à la technologie ne montre aucun signe d’arrêt. Meta a annoncé la création d'un groupe dédié à la construction d'une « superintelligence » sous le nom Laboratoires de méta-superintelligenceet OpenAI continue de développer des modèles de plus en plus puissants. Son PDG, Sam Altman, a récemment déclaré qu'il espérait atteindre la superintelligence avant 2030 et que,
« Les avantages potentiels valent les risques. »
Même des personnalités qui mettaient autrefois en garde contre les dangers, comme Elon Musk, dirigent désormais des entreprises concentrées sur cette course. Musk a reconnu cette année qu'il n'y avait « que 20 % de chances d'anéantissement » si l'IA dépasse les humains, alors que sa société xAI continue d'évoluer dans cette direction.
Parallèlement, Geoffrey Hinton (lauréat du prix Turing en 2019, avec Bengio et LeCun) prévient que « dans quelques années seulement, les systèmes d'IA de pointe pourraient surpasser la plupart des gens dans la plupart des tâches cognitives », ce qui nécessite de concevoir des systèmes « incapables de nuire aux humains, que ce soit par un mauvais alignement ou une utilisation malveillante ».
Un autre scientifique chevronné qui soutient le texte est Stuart Russell, professeur à l'Université de Californie. Selon lui, la proposition
« ne réclame pas une interdiction permanente, mais plutôt des mesures de sécurité adéquates pour une technologie qui, selon ses propres créateurs, pourrait provoquer l'extinction de l'humanité. »
Un tournant historique
Pour de nombreux analystes, cette lettre pourrait devenir le moment décisif du débat mondial sur la gouvernance de l’intelligence artificielle. Non seulement il a uni des secteurs traditionnellement opposés, mais il reflète une préoccupation collective quant à la direction que prend une technologie qui promet autant qu’elle menace.
Selon les mots de Yoshua Bengio, « nous devons veiller à ce que le public ait une voix beaucoup plus forte dans les décisions qui définiront notre avenir collectif ».
En attendant, reste la question posée par Anthony Aguirre, communicateur scientifique et co-fondateur du FLI :
« Voulons-nous vraiment des systèmes qui remplacent les humains ? Ou préférons-nous décider, tant que nous le pouvons encore, des limites de l'intelligence que nous créons ? »