Trump ordonne l’arrêt de l’IA Anthropic, tension géopolitique
La jeune startup californienne est devenue un symbole des débats sur le contrôle des IA militaires. Anthropic a refusé d’ouvrir sans garde-fous son modèle au secteur armé, préférant imposer des limites éthiques à son utilisation.
Selon les responsables, l’outil exige des protocoles robustes, des restrictions d’accès et une surveillance continue pour éviter les dérives potentielles.
Cette position a déclenché des réactions dans les sphères politiques et diplomatiques, certains saluant la prudence, d’autres appelant à écrire des règles plus claires sur l’innovation technologique.
Une leçon éthique d’Anthropic face à la demande américaine
À peine le tollé montait-il que l’ancien président a ordonné à son administration d’interrompre immédiatement l’usage de l’IA fournie par Anthropic, citant des raisons de sécurité nationale.
Le geste met en lumière une fracture entre le secteur privé qui pousse à l’audace et les autorités qui réclament des garde-fous plus stricts.
Au-delà du clash individuel, c’est le sujet brûlant de l’IA et de la sécurité qui est remis sur la table, avec des implications potentielles pour les startups comme Anthropic et pour la confiance publique.
