Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le juge rejette la tentative du Pentagone de « cripple » Anthropic
Le juge rejette la tentative du Pentagone de « cripple » Anthropic
il y a 19 minutes
PartagerEnregistrer
Kali HaysJournaliste spécialisée en technologie
PartagerEnregistrer
EPA
Anthropic a remporté une première victoire dans son procès contre le Pentagone.
La juge Rita Lin a statué jeudi en faveur de l’entreprise d’intelligence artificielle (IA) dans une ordonnance estimant que les directives du président Donald Trump et du secrétaire à la Défense américain Pete Hegseth, qui ordonnaient à toutes les agences gouvernementales d’arrêter immédiatement d’utiliser les outils d’Anthropic, ne pouvaient pas être appliquées pour le moment.
La juge Lin a écrit dans son ordonnance que le gouvernement tentait de « cripple Anthropic » et de « faire taire le débat public » en raison des préoccupations de l’entreprise quant à l’utilisation de sa technologie par le Département de la Défense.
« Cela ressemble à une retaliation classique du Premier Amendement », a ajouté la juge.
L’ordonnance signifie que les outils d’Anthropic, comme Claude, continueront d’être utilisés par le gouvernement et par toute entreprise extérieure travaillant avec l’armée jusqu’à ce que le procès soit tranché.
Les représentants de la Maison Blanche et du Département de la Défense n’ont pas répondu aux demandes de commentaires.
Une porte-parole d’Anthropic a déclaré que l’entreprise était « satisfaite » de la décision du tribunal fédéral en Californie, mais que son objectif « reste de travailler de manière productive avec le gouvernement pour garantir que tous les Américains bénéficient d’une IA sûre et fiable ».
Plus tôt ce mois-ci, Anthropic a poursuivi le Département de la Défense et plusieurs autres agences après que Trump a publiquement critiqué l’entreprise, puis Hegseth l’a qualifiée de « risque pour la chaîne d’approvisionnement » – la première fois qu’une entreprise américaine reçoit une telle désignation publiquement.
Cette désignation signifie qu’un outil ou un service n’est pas suffisamment sécurisé pour une utilisation gouvernementale, une classification traditionnellement réservée aux entreprises basées dans des pays adverses.
Anthropic a indiqué dans sa plainte que ses activités avaient été affectées par les actions du gouvernement et que son droit à la liberté d’expression avait été violé.
Le Pentagone a soutenu dans cette affaire qu’il craignait ce que Anthropic pourrait faire avec sa technologie, largement utilisée dans les opérations gouvernementales et militaires, en raison de son refus d’accepter de nouvelles conditions contractuelles. Cela a créé un besoin réel pour la désignation de risque pour la chaîne d’approvisionnement.
La juge Lin a noté dans son ordonnance que Trump et Hegseth, dans leurs déclarations publiques, qualifiaient Anthropic de « woke » et de « groupuscules de gauchistes », et non de problème de sécurité.
« Si cela n’était qu’une impasse contractuelle, le DoW aurait probablement simplement cessé d’utiliser Claude », a écrit la juge Lin, en faisant référence au Département de la Guerre, un nom secondaire pour le Département de la Défense. « Cependant, les actions contestées dépassent largement ce qui pourrait raisonnablement répondre à un tel intérêt de sécurité nationale. »
Anthropic négociait avec le Département de la Défense depuis plusieurs mois avant de déposer sa plainte, en raison de nouvelles exigences liées à une extension prévue de son contrat de 200 millions de dollars.
Le Pentagone voulait que le contrat indique simplement qu’il pouvait utiliser les outils d’Anthropic pour « toute utilisation légale ». Anthropic et son PDG Dario Amodei craignaient que cela n’ouvre la porte à une utilisation de ses outils pour la surveillance de masse des Américains et des armes entièrement autonomes.
Le conflit a été porté à la lumière publique en février, lorsque Hegseth a fixé une date limite pour qu’Anthropic accepte ses nouvelles conditions contractuelles. L’entreprise a refusé.
Intelligence artificielle
Militaire
Donald Trump
Technologie