Forskning: Fritt tillgängliga AI-modeller kan redan hitta samma säkerhetshål som Anthropics Mythos
Foto: Freepik
Anthropic har begränsat tillgången till sin nya AI-modell Mythos, som anses för farlig att släppas fritt på grund av sin förmåga att hitta och utnyttja mjukvarusårbarheter. Men ny forskning visar att hotet redan kan vara ett faktum.
Mythos hålls inlåst, men hotet finns redan
Anthropic valde att inte lansera Mythos öppet. Istället begränsas tillgången till ett litet antal stora teknikbolag vars programvara utgör grunden för många digitala tjänster, i syfte att ge försvarare tid att stärka sina system innan modellen når fel händer.
OpenAI uppges följa samma strategi. Enligt uppgifter från Axios arbetar bolaget med en intern modell, kallad "Spud", med liknande cybersäkerhetsförmågor, och planerar en stegvis lansering till en begränsad grupp partners.
Vissa analytiker har avfärdat de begränsade lanseringarna som marknadsföring snarare än renodlade säkerhetsbeslut. De flesta experter är dock överens om att AI-drivna cyberförmågor har nått en farlig vändpunkt.
Fritt tillgängliga modeller räcker redan långt
AI-säkerhetsbolaget AISLE har publicerat forskning som visar att flera av de sårbarheter Anthropic lyfte fram i sin annonsering, däribland decenniegamla buggar, sannolikt redan kan upptäckas med AI-modeller som vem som helst kan ladda ner och köra gratis. Det underminerar argumentet att Mythos utgör ett unikt och nytt hot.
– Det är inte nödvändigtvis en lugnande insikt, säger forskare citerade av Fortune, som betonar att slutsatsen snarare bekräftar att hotet redan är utbrett.
Uppgifterna förändrar bilden av vad begränsade lanseringar faktiskt uppnår. Om de tekniska förmågorna redan finns tillgängliga i enklare modeller, minskar värdet av att hålla de mest avancerade systemen inlåsta.
Tröskeln för avancerade attacker sjunker
Oavsett var Mythos hamnar på hotskalan pekar experterna på en bredare och mer oroväckande trend. Arbetsuppgifter som tidigare krävde avancerad teknisk kompetens, som att skanna kod efter sårbarheter eller kedja ihop flera exploateringar i en attack, automatiseras i allt högre grad av AI-system.
Det innebär att angripare utan djup teknisk kunskap kan genomföra storskaliga, koordinerade attacker mot tusentals system samtidigt. I förlängningen hotas kritisk infrastruktur som banksystem, elnät, sjukhus och vattenförsörjning.
Det är exakt det scenariot Anthropic uppger sig vilja förebygga med sin begränsade lansering. Men med fritt tillgängliga modeller som redan uppnår liknande resultat kvarstår frågan om hur effektiv den strategin verkligen är, och hur snabbt myndigheter och företag hinner stärka sina försvar innan de mest kapabla systemen når fler händer.