OpenAI håller tillbaka ny AI-modell för cybersäkerhet, följer Anthropics exempel
Foto: Freepik
OpenAI utvecklar en AI-modell med avancerade kapaciteter för cybersäkerhet som enbart ska släppas till en begränsad grupp samarbetspartners, uppger en källa med insyn för Axios. Beslutet speglar Anthropics val att inte publicera sin modell Mythos för allmänheten.
Modeller bedöms som för farliga att släppa fritt
Trenden bland ledande AI-bolag pekar mot ökad återhållsamhet. Axios konstaterar att utvecklarna nu är så oroade över vilken skada deras verktyg kan orsaka att de drar sig för att släppa dem fritt.
Anthropics modell Mythos kan identifiera och utnyttja sårbarheter i stora operativsystem och webbläsare, vilket gör att tillsynsmyndigheter och bedömare fruktar att hackare ska kunna använda modellen i skadliga syften. Bolaget har bedömt dess förmågor som "potentiellt farliga" och valt att inte göra den allmänt tillgänglig.
OpenAI väljer nu ett liknande tillvägagångssätt och begränsar sin nya modell till en liten krets av utvalda partners, snarare än en bred lansering.
Finansminister och Fed-chef kallade till brådskande möte
Oron sträcker sig bortom techbranschen. Finansminister Scott Bessent och Federal Reserves ordförande Jerome Powell kallade nyligen samman ledande aktörer på Wall Street till ett brådskande möte med anledning av farhågorna kring Anthropics modell.
Finanssektorn pekas ut som särskilt utsatt för de cyberrisker som avancerade AI-modeller kan medföra. Mötet signalerar att amerikanska myndigheter ser hotbilden som tillräckligt allvarlig för att agera redan innan modellerna når marknaden.
Utvecklingen visar att kapplöpningen om allt kraftfullare AI-system nu möter en ny typ av bromsande kraft, inte bara regulatorisk, utan också självpåtagen av bolagen själva. Hur länge begränsningarna håller, och vilka kriterier som avgör när en modell anses tillräckligt säker för bredare release, återstår att se.