Torsdagen den 19 mars 2026
Oberoende nyheter och fördjupande journalistik
Teknik

Anthropic söker expert på kemiska vapen för att skydda sin AI

Anthropic söker expert på kemiska vapen för att skydda sin AI

Foto: Freepik

AI-bolaget Anthropic rekryterar en specialist på kemiska vapen och sprängmedel, rapporterar BBC. Syftet är att förhindra att bolagets AI-system missbrukas för att framställa kemiska, radiologiska eller andra massförstörelsevapen.

Text: Viktor Dahlén

Minst fem års erfarenhet krävs

Tjänsten, som annonserades på LinkedIn med titeln "Policy Manager, Chemical Weapons and High Yield Explosives", riktar sig till sökande med minst fem års erfarenhet av kemiska vapen och sprängmedelsförsvar. Kunskaper om radiologiska spridningsanordningar, så kallade smutsiga bomber, är också ett krav.

Anthropic uppger till BBC att rollen liknar andra säkerhetsrelaterade tjänster bolaget redan har tillsatt. Konkurrenten OpenAI har annonserat en liknande tjänst, en forskartjänst inom biologiska och kemiska risker, med en lön på upp till 455 000 dollar, nästan dubbelt mot vad Anthropic erbjuder.

Experter varnar för riskerna med strategin

Trots att syftet är defensivt ifrågasätter flera experter om det är säkert att låta AI-system hantera känslig information om massförstörelsevapen, även om systemen instruerats att inte använda den.

– Är det någonsin säkert att använda AI-system för att hantera känslig information om kemikalier och sprängmedel, inklusive smutsiga bomber och andra radiologiska vapen? Det finns inget internationellt fördrag eller annan reglering för den här typen av arbete. Allt detta sker utom synhåll, säger Stephanie Hare, teknikforskare och programledare för BBC:s AI Decoded.

Rekryteringen sker samtidigt som Anthropic befinner sig i en juridisk konflikt med det amerikanska försvarsdepartementet. Bolaget stämde Pentagon i mars efter att försvarsminister Pete Hegseth klassificerat Anthropic som en "supply chain risk", ett beslut bolaget menar är ideologiskt motiverat. Bakgrunden är att Anthropic krävt att dess system inte används i fullt autonoma vapensystem eller för massövervakning av amerikanska medborgare.

Situationen kompliceras ytterligare av att Anthropics AI-assistent Claude, trots konflikten, fortfarande är inbäddad i system som levereras av Palantir och används av USA i konflikten mot Iran, enligt BBC.

Business Insider rapporterade i februari att Anthropic samtidigt tagit bort ett tidigare löfte om att pausa utvecklingen av nya modeller om säkerhetsarbetet inte hänger med, ett löfte som nu strukits ur bolagets säkerhetspolicy.

Dela:
Annons Annons