Hoppa till innehållet

Fejkade bilder får folk att checka ut

Med de nya kraftfulla AI-verktygen är det lätt att fejka såväl bild som video för att sprida desinformation. Plötsligt blir det lätt att avfärda en äkta bild för att den inte passar ens åsikter eller checka ut för att det ändå inte går att avgöra sanningshalten. Det menar två av Europas främsta experter på digital desinformation. 

Kate Middleton berättar i ett uttalande att hon har cancer. Detta efter att en uppenbart manipulerad bild på henne och hennes barn skapat en flodvåg av rykten.
Kate Middleton berättar i ett uttalande att hon har cancer. Detta efter att en uppenbart manipulerad bild på henne och hennes barn skapat en flodvåg av rykten.Foto: Yiu Mok

Det brittiska kungahuset är i gungning efter besked om två cancerdiagnoser inom loppet av en dryg månad. Först kung Charles i mitten av februari och förra veckan så även prinsessan Kate Middleton. Det hade kunnat räcka kan man tycka, men i stället fick kungahuset även hantera den perfekta storm som uppstod efter att prinsessan försökt lugna allmänheten genom att lägga ut en bild på sig och sina tre barn på Mors dag. 

Det visade sig ganska snart att bilden var manipulerad och togs därför snabbt ned från alla nyhetssajter. Detta i kombination med att hon inte synts till sedan kungahuset i januari meddelade att hon skulle genomföra en magoperation lade grogrunden för ett viralt spinn som fullständigt saknade gränser. 

”Detta är vad som händer när det finns ett stort informationsgap kring en fråga”, säger Eliot Higgins, grundare av den journalistiska grävargruppen Bellingcat. 

”Det blir ett tomrum som fylls med konspirationsteorier och grupper som studerar varje liten detalj i bilder och skapar en massa teorier och idéer. Det plockas upp av andra och innan du vet ordet av så har det skapats en alternativ verklighet som folk tror är sanningen bara för att de läst om det på nätet.”

Eliot Higgins
Eliot Higgins

Eftersom Kate Middleton också befinner sig i det mest granskade kungahuset i världen fanns det redan innan ett stort tryck.

”Vad det brittiska kungahuset säger och gör har en stor betydelse för hela samhället, inte bara för skvallerpressen”, säger Carl Heath, senior forskare och fokusledare för området digital resiliens på Rise samt doktorand vid institutionen för tillämpad it vid Göteborgs universitet. 

Det dröjde inte länge förrän spekulationerna kring vad som hänt Kate Middleton landade i rysk media där det spreds information om att kung Charles var död. 

”Det kom till och med falska dödsförklaringar i bilder som ryska aktörer spred. Det som började med ett folkligt spinn nyttjades sedan av en statsaktör för att driva sin politiska linje”, säger Carl Heath. 

Att redigera bilder på kungafamiljer, kändisar eller andra är inget nytt. Men med explosionen av AI har den gångna tidens redigering nått en helt ny nivå. Det finns allt fler verktyg för att skapa AI-genererade bilder idag, Midjourney och Open AI:s Dalle-E är två exempel på tillgängliga verktyg som skapar väldigt realistiska bilder. Open AI har nyligen också lanserat Sora för AI-produktion av video. 

”Den är inte tillgänglig för allmänheten ännu, de håller på att testa. Men det är en väldigt imponerande teknologi”, säger Eliot Higgins. 

I spåren av detta har deep fakes, det vill säga datorframställd förfalskad information i form av bild eller film som framställs som äkta och trovärdig, fullkomligt exploderat. Inte minst i krigszoner som Gaza och Ukraina. Efter terrorattacken i Moskva där IS Khorasan snabbt tog på sig skulden dök en fejkad video upp i ryska NTV där Oleksiy Danilov, nationell säkerhetschef, skämtade om attacken på ett sätt som antydde att Ukraina legat bakom.  

”Den största utmaningen handlar inte om bilderna är AI-genererade eller inte utan om att människor nu bara kan avfärda bilder som inte passar i deras världsbild genom att säga att de är AI-genererade”, säger Eliot Higgins. 

Carl Heath tar den läckta ljudfilen som spreds i det amerikanska valet 2016 där Donald Trump sa ”grab´em by the pussy” som ett intressant tankeexperiment.   

”Tänk om det hade hänt i dag. Då hade han bara kunnat säga att filen var AI-genererad och så hade saken snabbt varit ur världen.”

Carl Heath
Carl Heath

Att inte kunna skilja på vad som är sant och falskt kan också leda till att människor checkar ut och blir oengagerade samhällsmedborgare. 

”För många blir det så tröttsamt att de helt enkelt lägger ned helt och hållet. De tomrum som vanligt folk lämnar efter sig fylls då med de mest extrema motpolerna och den balanserade dialogen försvinner”, säger Eliot Higgins. 

En annan stor risk som Eliot Higgins ser med deep fakes är pornografi. 

”Det skapar redan problem i skolor där unga placerar ett ansikte från en klasskompis på en porrbild. För några år sedan hade man behövt en rätt specifik mjukvara för att göra det, men idag går det lätt och har blivit ett nytt sätt att kränka kvinnor.”

Samtidigt som utvecklingen av AI-verktygen går rekordsnabbt pågår många diskussioner såväl i forskarvärlden som i AI-företagen kring hur riskerna ska kunna hanteras, exempelvis genom vattenstämplar. 

”Jag tror att det skulle vara mer värdeskapande att aktörer som medier, företag och organisationer som sänder information går samman för att kunna sätta en digital kod som knyts till avsändaren. En sådan typ av äkthetsinfrastruktur finns inte idag”, säger Carl Heath.  

”Syftet skulle vara att man kan försäkra sig om att en tidning, ett företag eller myndighet som uttrycker något är den som den utger sig för att vara. Samtidigt är det jätteviktigt att det fortsatt är möjligt att vara anonym, och kunna till exempel läcka information.”

Det verkar som att du använder en annonsblockerare

Om du är prenumerant behöver du logga in för att fortsätta. Vill du bli prenumerant kan du läsa Di Digitalt för 197 kr inkl. moms de första 3 månaderna.

spara
1180kr
Prenumerera