Söndagen den 19 april 2026
Oberoende nyheter och fördjupande journalistik
Utrikes

Länder rustar för AI-styrda krig där människan ses som ett hinder

Länder rustar för AI-styrda krig där människan ses som ett hinder

Foto: Freepik

Flera länder utvecklar militära system där artificiell intelligens självständigt identifierar och väljer ut mål, utan att en människa hinner granska besluten. Iran har redan drabbats av en ny typ av AI-driven "dödskedja" där maskiner genererar enorma mängder målinformation i realtid.

Text: Alma Fredriksson

Vad är en AI-driven dödskedja?

Den så kallade dödskedjan, eller "kill chain" på militärt språk, beskriver processen från att ett mål identifieras till att ett angrepp genomförs. Traditionellt har människor fattat besluten i varje steg, men den modellen håller på att förändras i grunden.

I de system som nu utvecklas och används tar algoritmer över stora delar av processen. Maskiner analyserar signaler, rörelsemönster och data från sensorer för att sedan peka ut mål i en takt som en mänsklig operatör inte kan matcha. Resultatet är att den mänskliga kontrollen, om den finns kvar alls, reduceras till ett godkännande som i praktiken är svårt att hinna genomföra på ett meningsfullt sätt.

Iran utsattes nyligen för ett angrepp där just den här typen av AI-driven målidentifiering användes, enligt uppgifter från Omni. Systemet ska ha tagit fram ett ovanligt stort antal mål på kort tid, något som vittnar om hur snabbt tekniken nu tillämpas i skarpa lägen.

Drönare mot drönare, algoritm mot algoritm

Flera länder rustar aktivt för ett framtida stridsfält där autonoma system möter varandra direkt. Formeln som används i militära kretsar är talande: drönare mot drönare och algoritm mot algoritm, där den sida som kan agera snabbast vinner.

I det perspektivet ses den mänskliga faktorn inte som en säkerhetsgaranti, utan som en belastning. Människan reagerar för långsamt, behöver för mycket information och introducerar fördröjningar som kan vara avgörande i ett snabbt förlopp.

Det skapar en logik där stater som väljer att behålla mänsklig kontroll riskerar att hamna i militärt underläge mot de som låter maskinerna bestämma. Den logiken driver i sin tur en kapplöpning där varje aktör tvingas anpassa sig till vad motståndaren gör, eller riskera att förlora.

Frågan om ansvar förblir olöst

Den militärtekniska utvecklingen springer ifrån den politiska och juridiska debatten om var gränsen ska gå. Internationella diskussioner om autonoma vapensystem har pågått i mer än ett decennium inom ramen för FN:s konventionsprocess, utan att mynna ut i bindande regler.

Kärnfrågan är vem som bär ansvaret när ett autonomt system dödar fel person eller bryter mot krigets lagar. Är det operatören, befälhavaren, programmeraren eller staten? Inget av de befintliga juridiska ramverken ger ett tydligt svar.

Medan den frågan förblir obesvarad fortsätter tekniken att rullas ut. De länder som ligger längst fram i utvecklingen, bland annat USA, Israel och Kina, visar inga tecken på att invänta ett internationellt regelverk innan systemen används i strid. Det gör att nästa konflikt med stor sannolikhet åter kommer att testa gränserna för vad maskiner får bestämma, innan politikerna hunnit enas om var den gränsen ska gå.

Dela:
Annons Annons