De botsing tussen AI-bedrijf Anthropic en het Amerikaanse ministerie van Defensie begon als een contractgeschil, maar groeide uit tot een principiële strijd over zeggenschap. Aanleiding is een contract van 200 miljoen dollar voor het gebruik van Anthropics AI-model Claude in geheime defensiesystemen. Het Pentagon eist dat het model voor “any lawful use” mag worden ingezet. Anthropic weigerde twee toepassingen toe te staan: grootschalige binnenlandse surveillance van Amerikanen en volledig autonome wapens die zonder menselijke tussenkomst doelen selecteren en aanvallen.
Topman Dario Amodei stelde dat “in a narrow set of cases, we believe A.I. can undermine, rather than defend, democratic values” en dat huidige frontier-modellen “not reliable enough to power fully autonomous weapons” zijn. Het bedrijf benadrukte dat het alle andere wettige toepassingen voor de nationale veiligheid ondersteunt en dat Claude al breed wordt ingezet, onder meer voor inlichtingenanalyse, operationele planning en cyberoperaties.
Het Pentagon verwierp de uitzonderingen. Defensieminister Pete Hegseth stelde dat een private leverancier geen beperkingen mag opleggen aan wettig militair gebruik en dreigde Anthropic aan te merken als “supply chain risk to national security”. President Donald Trump kondigde vervolgens aan dat federale agentschappen het gebruik van Anthropic-technologie binnen zes maanden moeten uitfaseren. Op Truth Social noemde hij het bedrijf een “radical left AI company” en stelde dat de beslissing over militair gebruik “belongs to your commander-in-chief”.
De maatregel is juridisch en politiek opvallend. Het label “supply chain risk” werd eerder gebruikt tegen buitenlandse ondernemingen zoals Huawei, maar niet publiekelijk tegen een Amerikaans technologiebedrijf. Juristen waarschuwen dat dit een precedent kan scheppen voor de inzet van nationale veiligheidsinstrumenten in commerciële geschillen.
Economisch gezien is de directe impact beperkt. Anthropic wordt gewaardeerd op circa 380 miljard dollar en rapporteert een jaaromzet van meerdere miljarden dollars; het defensiecontract vertegenwoordigt daarvan een relatief klein deel. Indirect kan uitsluiting echter gevolgen hebben voor defensietoeleveranciers die in hun militaire contracten geen gebruik meer mogen maken van Anthropic-systemen.
De escalatie creëerde ook een opening voor concurrenten. OpenAI sloot vrijwel direct een overeenkomst met het Pentagon, accepteerde het principe van “lawful use” en kondigde aan technische waarborgen in te bouwen om ongewenste toepassingen te beperken. Ook xAI van Elon Musk heeft inmiddels defensiecontracten verworven.
Binnen Silicon Valley leidde de zaak tot debat. Medewerkers van Google en OpenAI riepen hun leiding op grenzen te stellen aan militair gebruik van AI, met name rond binnenlandse surveillance en autonome wapens. Het conflict raakt daarmee aan bredere vragen over de rol van technologiebedrijven in de nationale veiligheidsstrategie.
De cruciale vraag is wie de grenzen aan militaire AI stelt. Het Pentagon beroept zich op democratische legitimiteit en wettelijke kaders, Anthropic op technologische betrouwbaarheid en de bescherming van burgerrechten. De uitkomst kan bepalend zijn voor de toekomstige samenwerking tussen overheden en AI-bedrijven. Als de staat bedrijven kan uitsluiten vanwege contractuele beperkingen, verschuift de balans richting overheidscontrole. Als bedrijven technische waarborgen als voorwaarde kunnen stellen, ontstaat een model van gedeelde normstelling. In beide gevallen markeert deze zaak een belangrijk moment in de institutionele vormgeving van militaire AI.
To be continued…
Bronnen
- Anthropic. (2026, 26 februari). Statement from Dario Amodei on our discussions with the Department of War.
- Anthropic. (2026, 27 februari). Statement on the comments from Secretary of War Pete Hegseth.
- BBC News. (2026, 27 februari). Trump orders government to stop using Anthropic in battle over AI use.
- NRC Handelsblad. (2026, 26 februari). Anthropic verbiedt gebruik van zijn AI in autonome wapens. Het Pentagon dreigt met zware maatregelen om daartoe te dwingen.
- The New York Times. (2026, 27 februari). Silicon Valley Rallies Behind Anthropic in A.I. Clash With Trump.
- The New York Times. (2026, 27 februari). Pentagon Standoff Is a Decisive Moment for How A.I. Will Be Used in War.
- The New York Times. (2026, 27 februari). Trump Orders Government to Stop Using Anthropic After Pentagon Standoff.
- The New York Times. (2026, 27 februari). OpenAI Reaches A.I. Agreement With Defense Dept. After Anthropic Clash.
2 reacties
“ChatGPT takes Trump’s killer robot deal. It’s time to Quit.”
https://quitgpt.org/
The whole thing was a scam.. The fix was in, and Dario never had a chance..
https://www.linkedin.com/posts/gary-marcus-b6384b4_the-whole-thing-was-a-scam-activity-7433554922555723778-xd1z