Menu

Aucun menu défini dans le customizer.

actualites-business/legislation-juridiqueActus AutomatiséesActus TechGoogleintelligence-artificielle/actualites-iaOpenAISciences

Près de 900 employés de Google et OpenAI réclament des limites sur l’IA militaire

Actualités Automatisées

Près de 900 employés de Google et OpenAI réclament des limites sur l’IA militaire

🕒 Publié le : 05/03/2026 à 15:49
 |  ✍️ Auteur : Korben
 |  📚 Source : Les news de Korben

Plus de 600 employés de Google et OpenAI ont signé une lettre ouverte baptisée « We Will Not Be Divided », pour demander des limites claires sur l’usage militaire de l’IA. Le nombre de signataires est monté à près de 900 en quelques jours. Il y a deux gros problèmes dans cette histoire : la surveillance de masse et les armes autonomes. Le contexte est tellement tendu que le Pentagone a même blacklisté Anthropic pour avoir refusé de coopérer.

Une lettre, deux lignes rouges

La lettre, publiée le 28 février sur le site notdivided.org, a d’abord réuni 573 employés de Google et 93 d’OpenAI. En quelques jours, le compteur est monté à près de 900 signatures, dont 800 côté Google. Les signataires posent deux lignes rouges : pas de surveillance de masse des citoyens américains, et pas de systèmes d’armes autonomes sans supervision humaine. « Les responsables gouvernementaux tentent de pousser les entreprises d’IA à abandonner certaines limites éthiques. Cette stratégie ne fonctionne que si aucun de nous ne sait où se situent les autres », peut-on lire dans la lettre.

Anthropic blacklisté par le Pentagone

Tout est parti d’un bras de fer entre Anthropic et le Pentagone. Le département de la Défense avait donné un ultimatum à Anthropic : lever ses restrictions sur Claude pour permettre son utilisation dans la surveillance domestique et les armes autonomes, ou perdre ses contrats fédéraux. Anthropic a refusé. La réponse a été immédiate : Trump a ordonné l’arrêt de toute utilisation des produits Anthropic par les agences fédérales, et le secrétaire à la Défense Pete Hegseth a désigné l’entreprise comme « risque pour la chaîne d’approvisionnement ». Le gouvernement a même menacé d’invoquer le Defense Production Act, une loi datant de la guerre de Corée, pour forcer Anthropic à coopérer. Et quelques heures après ce refus, OpenAI annonçait un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés.

Altman tente de calmer le jeu

Sam Altman a organisé une session de questions-réponses sur X le samedi 1er mars. Il a reconnu que l’accord avait été « précipité » et que « les apparences ne sont pas bonnes ». Sa justification : vouloir « désamorcer » les tensions entre le Pentagone et Anthropic, et éviter que le gouvernement ne force les entreprises privées à coopérer. Sauf que l’accueil a été glacial. L’application Claude est montée à la deuxième place de l’App Store en téléchargements, les bureaux d’OpenAI à San Francisco ont été recouverts de graffitis, et l’un des employés d’OpenAI, Leo Gao, a qualifié les protections du contrat de « décoration de vitrine ».

Le timing d’OpenAI, qui a signé avec le Pentagone le jour même où Anthropic se faisait blacklister, est quand même difficile à avaler. Altman peut dire ce qu’il veut, ça ressemble surtout à du pur opportunisme. Le plus parlant, c’est que le grand public a spontanément pris le parti d’Anthropic, et que les propres employés d’OpenAI contestent l’accord. Perso, j’attends de voir si les lignes rouges réclamées par les salariés déboucheront sur de vraies politiques internes. Pour le moment, c’est Anthropic qui sort grandi de cette séquence, l’air de rien.

Sources :
Techradar
,
Digital Information World

Krigs's avatar

À propos de l'auteur

https://github.com/Krigsexe

Voir tous les articles de Krigs

Leave a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Gravatar profile