Fredagen den 27 mars 2026
Oberoende nyheter och fördjupande journalistik
Teknik

Domare stoppar Trumps stämpling av Anthropic som säkerhetsrisk

Domare stoppar Trumps stämpling av Anthropic som säkerhetsrisk

Foto: Freepik

En federal domare i San Francisco har tillfälligt blockerat Pentagons beslut att klassa AI-bolaget Anthropic som en nationell säkerhetsrisk, i ett tidigt juridiskt nederlag för Trump-administrationen.

Text: Viktor Dahlén

Striden handlar om ett kontrakt på 200 miljoner dollar

Konflikten har sin grund i förhandlingarna om ett militärt AI-kontrakt värt 200 miljoner dollar, rapporterar New York Times. Anthropics vd Dario Amodei vägrade låta bolagets AI-modell Claude användas för autonoma vapen eller för att övervaka amerikanska medborgare. Pentagon svarade att det är militären, inte leverantörerna, som avgör hur inköpt teknik används.

Trump eskalerade konflikten ytterligare genom att beordra samtliga federala myndigheter att sluta använda Claude. Pentagon stämplade sedan Anthropic som en "supply chain risk", en beteckning som normalt riktas mot utländska underrättelsetjänster och terroristorganisationer, inte amerikanska bolag. Märkningen innebär i praktiken en svartlistning som hindrar hela Pentagon-sfären från att anlita bolaget.

– Vi kommer inte att tillåta att en leverantör sätter sig in i kommandokedjan och begränsar den lagliga användningen av en kritisk förmåga, sade Pentagon i ett uttalande, enligt NPR.

Domaren: Anthropic straffas för att ha kritiserat regeringen

Domare Rita F. Lin vid U.S. District Court for the Northern District of California utfärdade ett 43 sidor långt beslut om preliminär injunktion, som pausar både säkerhetsklassningen och Trumps direktiv mot Claude, tills domstolen hunnit pröva sakfrågan.

Lin skriver att beteckningen "supply chain risk" inte verkar vara motiverad av de nationella säkerhetsintressen regeringen uppger.

– Ingenting i lagen stödjer den orwellska föreställningen att ett amerikanskt företag kan stämplas som en potentiell motståndare och sabotör av USA för att det uttrycker oenighet med regeringen, skriver Rita Lin i beslutet, enligt New York Times.

Domaren konstaterar att om Pentagons verkliga oro gäller den operativa kommandokedjan finns en enklare lösning: att sluta använda Claude. Åtgärderna ser i stället ut att vara utformade för att bestraffa bolaget, skriver Lin.

Anthropic har väckt två parallella stämningar, en i Kalifornien och en i U.S. Court of Appeals i Washington D.C., där bolaget hävdar att klassningen utgör olaglig repressalie och kränker bolagets yttrandefrihet enligt det första tillägget i konstitutionen. Stödet för Anthropic i rätten är brett, bland annat har Microsoft, ACLU och pensionerade militärer lämnat in amicus-skrivelser till domstolen.

Injunktionen är inte ett slutgiltigt avgörande. Det rättsliga förfarandet fortsätter, och domstolen ska pröva om Pentagons agerande är lagligt.

Dela:
Annons Annons