Metas tillsynsråd: AI-märkning varken robust eller tillräcklig
Foto: AI-genererad illustration
Metas tillsynsråd uppmanar bolaget att skärpa reglerna kring AI-genererat innehåll och investera i bättre identifieringsteknik. Meta har 60 dagar på sig att svara på rekommendationerna.
En fejkad video om Israel-Irankriget utlöste kritiken
Kritiken grundar sig i ett konkret fall från juni 2025, under det tolv dagar långa kriget mellan Israel och Iran. Den 15 juni publicerade ett Facebook-konto, drivet av en person i Filippinerna, en video som påstod sig visa skadade byggnader i israeliska Haifa.
Videon, som hade likheter med ett klipp som ursprungligen spreds på TikTok och avfärdats som falskt av faktakollarorganisationen AFP, samlade över 700 000 visningar innan Meta agerade. Bolaget valde inledningsvis att varken ta bort videon eller märka den med en “hög risk”-etikett för AI-genererat innehåll. Tillsynsrådet upphävde det beslutet, och Meta stängde slutligen tre konton kopplade till sidan efter att rådet pekat på uppenbara tecken på bedrägeri.
– Meta måste göra mer för att hantera spridningen av vilseledande AI-genererat innehåll på sina plattformar, så att användare kan skilja på vad som är verkligt och falskt, skriver tillsynsrådet i sitt beslut.
Systemet bygger för mycket på att användare själva rapporterar
Rådet riktar skarp kritik mot hur Metas nuvarande märkningssystem fungerar i praktiken. Systemet beskrivs som “varken robust eller genomgripande nog” för att hantera den hastighet och volym med vilken AI-genererat innehåll sprids, särskilt under konflikter och kriser.
Problemet, enligt rådet, är att systemet i för hög grad förlitar sig på att användare själva uppger att innehåll är AI-skapat, kombinerat med manuell granskning som sker sällan. Det räcker inte i dagens miljö, konstaterar rådet, och lyfter också fram att innehåll sprids plattformsöverskridande, från TikTok till Facebook, Instagram och X, utan att märkning följer med.
Rådet uttrycker även oro över rapporter om att Meta inkonsekvent implementerar digitala vattenstämplar på AI-innehåll som skapas med bolagets egna AI-verktyg.
Rådet kräver separata regler och bättre teknik
Tillsynsrådet presenterar flera konkreta åtgärder som Meta uppmanas att genomföra. En central rekommendation är att bolaget skapar ett separat regelverk för AI-genererat innehåll, fristående från den befintliga desinformationspolicyn. Det nya regelverket ska tydliggöra när och hur användare måste märka AI-innehåll, samt vilka påföljder som gäller vid brott mot reglerna.
Rådet vill också att Meta investerar i mer avancerad detektionsteknik för att identifiera AI-genererade bilder, ljud och videor, och att bolaget breddar användningen av C2PA, en branschstandard för innehållsursprung, så att information om AI-genererat material blir tydligt synlig för användarna.
Tillsynsrådet är formellt oberoende men installerades av Meta självt, och har tidigare vid flera tillfällen kritiserat bolagets hantering av AI-innehåll. Meta hade inte kommenterat rådets beslut när Engadget och The Verge rapporterade om det. Bolaget har nu fram till maj 2026 att lämna sitt svar.


