Le différend entre Anthropic et le gouvernement américain révèle des divergences plus profondes sur la gouvernance, les risques et le contrôle de l'IA

Le différend croissant entre Anthropic PBC et le ministère américain de la Défense révèle une tension fondamentale sur le marché de l’intelligence artificielle : qui contrôle en fin de compte la puissance des systèmes d’IA ?

Ce qui a commencé comme un désaccord contractuel et politique a évolué vers un débat plus large sur la sécurité nationale, la responsabilité des entreprises et les limites de l’autonomie gouvernementale dans les technologies émergentes.

Au centre du conflit se trouve la désignation par le Pentagone d'Anthropic comme un « risque pour la chaîne d'approvisionnement », une décision qui interdit effectivement l'utilisation des modèles de l'entreprise dans des systèmes liés à la défense. Le président Donald Trump a ensuite ordonné à toutes les agences fédérales de cesser de faire affaire avec Anthropic.

Cette décision a été contestée devant les tribunaux et fait désormais l’objet d’une injonction préliminaire, mais ses implications se répercutent déjà sur les pratiques de développement des technologies de l’information et de l’IA des entreprises.

Un rapport de Gartner Inc. publié fin mars indiquait que cet épisode souligne à quel point les modèles d'IA sont profondément intégrés dans les systèmes logiciels et les vulnérabilités aux chocs politiques qui en résultent. « L'exclusion d'Anthropic souligne la rapidité avec laquelle les dépendances intégrées au modèle peuvent se transformer en dette technique structurelle », a écrit la société, notant que même des changements mineurs dans le comportement du modèle peuvent nécessiter une « large revalidation fonctionnelle » et potentiellement perturber les systèmes de production.

Au cœur du différend se trouve l'insistance d'Anthropic à restreindre la manière dont ses modèles peuvent être utilisés, en particulier dans des domaines tels que la surveillance de masse et les armes autonomes. Cette position a déclenché un débat plus large sur la question de savoir si les entreprises privées devraient définir des limites éthiques pour les technologies ayant des implications sociétales et géopolitiques.

SiliconANGLE a contacté de nombreux experts en IA et dirigeants de l'industrie. Même si la plupart ont refusé de commenter cette question politiquement chargée, ceux qui ont accepté d'être cités ont largement soutenu le droit d'Anthropic de dicter des restrictions sur l'utilisation de sa technologie.

Conflit de gouvernance

Plusieurs ont fait valoir que la présentation par le Pentagone du problème comme d'un risque lié à la chaîne d'approvisionnement est exagérée. Le conflit semble moins porter sur des vulnérabilités de sécurité que sur des désaccords sur une utilisation acceptable, a déclaré David Linthicum, expert en la matière dans le domaine du cloud et de l'IA.

« Si une entreprise déclare qu’elle ne veut pas que son IA soit utilisée à certaines fins de surveillance militaire ou nationale, c’est une question de politique et de gouvernance », a-t-il déclaré.

Carlos Montemayor, professeur de philosophie à l'Université d'État de San Francisco, a adopté un point de vue plus critique à l'égard de la position du gouvernement, suggérant que cette désignation pourrait être punitive. « Le gouvernement punit Anthropic pour ne pas avoir suivi les ordres », a-t-il déclaré, qualifiant cette décision d'injustifiée et potentiellement de signal aux autres fournisseurs d'IA de s'aligner sur les attentes fédérales.

Cette divergence d’interprétation reflète une ambiguïté plus large : les systèmes d’IA doivent-ils être traités comme des composants logiciels interchangeables ou comme des actifs stratégiques soumis à un alignement plus étroit sur les priorités de l’État ?

Linthicum soutient le fait de donner aux entreprises le droit et la responsabilité de fixer des limites. « Si une entreprise développe une technologie puissante, elle a parfaitement le droit de dire ce qu’elle soutiendra ou non », a-t-il déclaré. Il a toutefois souligné que ces décisions ne devraient pas être prises de manière isolée. Les gouvernements, les tribunaux et les clients ont tous un rôle à jouer dans l’élaboration d’une utilisation acceptable.

Valence Howden, chercheur chez Info-Tech Research Group Inc., a fait écho à ce point de vue, affirmant que les organisations « ont la responsabilité de définir les limites éthiques et les cas d'utilisation de leurs technologies », d'autant plus que les systèmes d'IA assument des rôles plus autonomes.

D’autres étaient cependant moins à l’aise avec l’autoréglementation des entreprises. Montemayor a fait valoir que permettre aux entreprises de définir leurs propres cadres éthiques est « inacceptable et dangereux », compte tenu de l’ampleur et de l’impact des systèmes d’IA. « D’un point de vue éthique, les entreprises ne devraient pas dicter, de leur point de vue technique et commercial étroit, ce qui est bien ou mal pour les sociétés du monde entier », a-t-il déclaré.

Montemayor a appelé à une réglementation internationale fondée sur les principes des droits de l’homme, avertissant que les approches actuelles créent « trop d’incertitude quant à l’avenir de cette technologie ».

Les analystes de Gartner suggèrent que ces décisions se résument souvent à des compromis commerciaux. Les restrictions contractuelles sur la manière dont la technologie peut être utilisée sont courantes, mais il est difficile de les faire respecter. Dans le cas d'Anthropic, les limitations concernant les armes autonomes peuvent refléter non seulement des préoccupations éthiques mais aussi des contraintes techniques. « Les systèmes Frontier AI ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes », a écrit le directeur général d'Anthropic, Dario Amodei.

La confiance comme différenciateur

À première vue, les vastes restrictions gouvernementales sur les relations commerciales avec Anthropic peuvent sembler être un coup dévastateur pour l'entreprise, mais malgré la perte potentielle de contrats gouvernementaux lucratifs, plusieurs experts estiment que la position d'Anthropic pourrait renforcer sa position sur le marché des entreprises.

Marc Fernandez, directeur de la stratégie chez Neurologyca Science & Marketing SL, a formulé le problème en termes de confiance à long terme. « Maintenir le cap sur les restrictions va coûter cher (pour Anthropic) à court terme », a-t-il déclaré, mais des limites claires peuvent indiquer la fiabilité dans des environnements à enjeux élevés. « Au fil du temps, ce type de fiabilité devient un énorme avantage concurrentiel. »

Linthicum convient que la cohérence est importante. « De nombreuses entreprises clientes veulent savoir qu'un fournisseur a des valeurs claires et qu'il les respectera sous pression », a-t-il déclaré. La position d'Anthropic pourrait ainsi la rendre « plus attractive pour de nombreux clients, pas moins », à condition que ses politiques soient clairement définies et appliquées de manière cohérente.

Howden d'Info-Tech a également souligné le facteur confiance, notant que le maintien des restrictions « a probablement profité à Anthropic, une industrie qui n'a pas toujours été bâtie sur la confiance et l'honnêteté ».

Divergence en matière de gouvernance

Certains observateurs ont déclaré que le différend reflète une incompréhension plus profonde de ce que sont les systèmes d’IA et de la manière dont ils devraient être gouvernés.

Le directeur général d'Anaconda Inc., David DeSanto, a noté dans un article sur LinkedIn que le Pentagone semble traiter l'IA comme « la prochaine version de Microsoft Excel – un outil que vous achetez, possédez et utilisez comme vous le souhaitez », a-t-il déclaré. « Mais ce n'est pas ce qu'est cette technologie. »

Contrairement aux feuilles de calcul, les systèmes d'IA sont capables de « jugement et d'action autonome », ce qui nécessite de nouveaux cadres de gouvernance qui ne peuvent pas être adaptés aux modèles d'approvisionnement et de surveillance existants. Cet écart, a déclaré DeSanto, est évident non seulement au sein du gouvernement mais aussi dans toutes les entreprises, où les dirigeants supposent souvent qu'ils peuvent « intégrer l'IA à l'infrastructure existante et comprendre plus tard les choses difficiles comme les responsabilités de gouvernance ».

Steve Croce, directeur technologique d'Anaconda Field, a mis en garde contre la « normalisation de la déviance », ou la tendance des organisations à baisser la garde tant que les systèmes continuent de fonctionner sans défaillances évidentes.

« Lorsque des entreprises comme Anthropic commencent à abaisser leurs normes de sécurité, cela crée un précédent », écrit-il. Les entreprises doivent donner la priorité à la « souveraineté de l’IA », ou à la capacité de définir et d’appliquer leurs propres garde-fous, plutôt que de s’appuyer sur des fournisseurs externes.

Implications pour l'entreprise

Au-delà des dimensions éthiques et politiques, le conflit anthropique est susceptible de contraindre les organisations à faire face à des défis pratiques liés à l’adoption de l’IA, note Gartner.

Contrairement aux logiciels de productivité, le remplacement d’un modèle ne consiste pas simplement à changer de back-end. Cela nécessite souvent de requalifier des flux de travail entiers, de recycler les systèmes et de recalibrer les références de performances. « Un échange forcé de modèle n'est pas seulement une tâche de vérification », a noté la société. « C'est une requalification du système dépendant de l'IA. »

Cela crée un paradoxe : les organisations qui investissent massivement dans l’optimisation des flux de travail basés sur l’IA peuvent atteindre une productivité plus élevée, mais sont confrontées à de plus grandes perturbations lorsque des changements de politique les obligent à changer de fournisseur.

En conséquence, Gartner recommande aux responsables de l'ingénierie de traiter « la volatilité des fournisseurs comme un risque immédiat de continuité » et de concevoir des systèmes axés sur la portabilité, la modularité et la substitution rapide.

Il est clair que l’IA n’est plus seulement une question technique mais un défi de gouvernance qui touche à la stratégie commerciale, à la sécurité nationale et aux valeurs sociétales. L’issue de ce différend contribuera probablement à façonner la manière dont ces priorités souvent concurrentes seront équilibrées dans les années à venir.

Concepteur de copilote SiliconANGLE/Microsoft

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine