Har du for nylig set en video på nettet, hvor du ikke helt kunne afgøre, om den var ægte eller ej? Det er ikke så mærkeligt. AI-firmaer lancerer nemlig løbende nye og bedre modeller til video- og lydgenerering. OpenAI, firmaet bag ChatGPT, udgav i efteråret 2025 modellen Sora 2, og i februar 2026 har den kinesiske TikTok-skaber Bytedance chokeret med videoer af Hollywood-stjerner skabt af AI-systemet Seedance 2.0. AI-værktøjer som Sora 2 er tekst-til-video-modeller, der lærer ved at koble ord og billeder sammen ved hjælp af enorme mængder data. Sora 2 kan derfor generere videoer af for eksempel en kat, der bager kage, ved at analysere datamateriale om katte, kager og mennesker, der bager. "Værktøjet kombinerer disse elementer og skaber et overraskende resultat, især når man tænker på, at der jo ikke findes ægte videoer af katte, der bager kager," fortæller Gabriele de Seta, som forsker i kunstig intelligens ved Universitetet i Bergen. Opleves som mere realistisk De nyeste AI-videoer fra Sora 2 ser meget realistiske ud. Hvordan kan det lade sig gøre? Ifølge Gabriele de Seta skyldes det, at udviklerne har finjusteret modellen, så den ligner virkelige formater. Modellen efterligner selfie-videoer, overvågningskameraer og sjove klip, der er gået viralt på de sociale medier. "Fordi det føles bekendt, virker det mere troværdigt," forklarer han. Ifølge forskeren handler det også til dels om nyhedseffekten. "Hver gang en ny model bliver lanceret, opleves den som mere realistisk. Fordi vi ikke er vant til de nye justeringer, bliver vi lettere narret." Lidt som at blive vaccineret AI-teknologien bevæger sig stadig med syvmileskridt, og Gabriele de Seta mener, at der allerede findes videoer, som er så realistiske, at det ikke er muligt at se, at de er skabt af kunstig intelligens. "Men disse videoer kræver stadig en del arbejde. Hvis du giver modellen enkle instruktioner, kan resultatet blive ret ujævnt." Gabriele De Seta fortæller, at mennesker og dyr i de fleste AI-genererede videoer stadig bevæger sig på lidt unaturlige måder, og at objekter kan ændre form eller placering, når kameraet bevæger sig. Han forklarer også, at AI-videoer ofte kun varer et par sekunder. En længere AI-video vil typisk bestå af flere korte klip, der er sat sammen. "Det kan være tegn, der afslører, at videoen er lavet med kunstig intelligens," siger forskeren. Han advarer dog mod at stole blindt på sådanne tegn, da teknologien hurtigt bliver bedre og bedre. Gabriele De Setas bedste råd til at lære at afsløre AI-videoer er derfor at bruge værktøjet selv. Ved at lege med værktøjet og se, hvad det kan, bliver du bedre rustet til at genkende de videoer, der bliver produceret. "Det er lidt som at blive vaccineret," tilføjer han. Skaber nye udfordringer Sammen med udviklingen af AI-værktøjer vokser bekymringen for deres evne til at sprede misinformation. Gabriele De Seta fortæller, at AI-modeller har været brugt til at sprede misinformation i mange år, men at forskning tyder på, at AI ikke nødvendigvis er mere effektiv end traditionelle metoder. "Det, der dog er helt sikkert, er, at AI skaber stor usikkerhed." Han fortæller om et fænomen, som forskere kalder 'the liar's dividend' – løgnerens udbytte. "Det, at alt potentielt kan være falskt, betyder, at publikum skal bruge mere tid og energi på at efterprøve indhold." "AI har indtil videre ikke haft stor succes med at sprede misinformation, men spreder til gengæld store mængder tvivl og mistanke," slutter Gabriele de Seta. ©Forskning.no. Oversat af Stephanie Lammers-Clark. Læs den oprindelige artikel her.