Conflit entre Trump et Anthropic sur l’accès militaire
Dans une décision surprise, l’administration a reçu l’ordre d’interrompre l’usage de l’IA développée par Anthropic au sein des services publics, avec une application immédiate.
Anthropic a jusqu’ici refusé d’ouvrir librement son modèle à l’armée américaine, privilégiant des garde-fous éthiques et des limites d’utilisation dans certains scénarios.
Le ministre de la Défense, Pete Hegseth, a réagi avec une critique virulente de cette approche, la qualifiant d’arrogance et de trahison envers la sécurité nationale, et l’entreprise a été placée sur une liste d’entités à risque.
Une société éthique met en garde contre l’exploitation
Cette mesure positionne Anthropic comme une société jugée risquée pour la sécurité du pays par les autorités.
Les analystes spéculent sur les répercussions pour la recherche et pour les partenariats entre le secteur public et le privé dans le domaine de l’IA.
Au-delà des chiffres, l’affaire rappelle le délicat équilibre entre ouverture technologique, éthique et souveraineté numérique, qui façonne l’avenir des normes d’utilisation de l’IA.
