TV 2s nyhetsanker misbrukt i deepfake-video

1 month ago 30



Nå bruker svindlere kunstig intelligens for å lage falske videoer med norske medieprofiler. – En form for destabilisering.

 Skjermbilde / Facebook
FALSK: Videoen som er delt på Facebook viser TV 2s nyhetsanker Siren Helen Henschien og oljefondssjef Nicolai Tangen, som tipser folk om en stor investeringsmulighet. Bildet er falsk. Foto: Skjermbilde / Facebook

Publisert 23.09.2025 09:11 Sist oppdatert 11 minutter siden

«Ifølge en ny uttalelse fra Nicolai Tangen, etter at han ble pågrepet mistenkt for uforklarlig berikelse, kan hver norsk borger fra og med denne måneden endre sin fremtid».

Slik lyder det fra TV 2s nyhetsanker Siren Helen Henschien i klippet som er delt på Facebook. 

Videre i videoen presenterer Henschien oljefondssjef Nicolai Tangen som «personlig garanterer» for sikkerheten til en investeringsplattform som kan gjøre vanlige folk rike i rekordfart.

Det er ingen ny sak at kjente folk og ansikt blir misbrukt i såkalte deepfake-videoer på nett, altså manipulerte videoer.

Men det er første gang at kriminelle bruker kunstig intelligens (KI) for å lage en falsk video fra TV 2s nyhetsstudio.

– Dette er alvorlig. Dette er identitetstyveri. Dette er utnyttelse av TV 2s tillit i befolkningen, sier Henschien, som frykter at det skal gå utover hennes integritet som journalist. 

Svekker tilliten 

Utviklingen av KI har skjedd i rekordfart, og i dag finnes det KI-verktøy som gjør det enkelt for folk flest å lage deepfake-videoer. 

Men det er varierende hvor bra resultater du får, og for å lage noe som er ordentlig bra, kreves det en del ressurser og kunnskap, forklarer forsker hos Institutt for datateknologi og informatikk ved NTNU, Oskar Jørgensen.

Hva er deepfake?

  • Ordet «deepfake» brukes som et samlebegrep på bilder, video og lyd fremstilt ved hjelp av maskinlæring, altså kunstig intelligens.

  • Typiske bruksområder er å bytte ut ansikter (tenk Snapchat-filter, men mer avansert) eller å lage syntetiske stemmer som til forveksling ligner personer de kopiert fra.

  • For å lage en troverdig deepfake er kildematerialet viktig. Jo mer høyoppløselig bilde, video eller lydmateriale man har av personen som skal forfalskes, jo bedre utgangspunkt for å bygge den digitale modellen.

  • Når den kunstige intelligensen er trent opp med kildematerialet, kan den gis instruksjoner og spytte ut et mer eller mindre troverdig resultat, avhengig av teknologiens kvalitet.

Men for Henschien, som er bergenser, var det helt klart noe som skurret i deepfake-videoen av henne:

– Jeg kjente jo meg selv igjen, men det virket så stakkato. Og da jeg hørte lyden og det var stavangerdialekt, så syns jeg det var rart. Veldig rart.

Noe lignende skjedde i fjor da nyhetsankrene i Dagsrevyen på NRK også dukket opp i en deepfake-video, og plutselig snakket flytende dansk. 

Men selv om TV 2s erfarne nyhetsanker raskt plukket opp at videoen av henne var falsk, er hun bekymret for de som ikke er like kildekritiske. 

– Den store faren som ligger bak deepfakes eller kunstig skapte videoer og bilder, er at det kan både svekke tilliten til redaktørstyrte medier, til institusjoner og tilliten til kjente personer, i dette tilfellet Nicolai Tangen. 

Til syvende og sist er Henschien bekymret for at falske videoer skal bidra til destabilisering; at det man ser ikke er virkelig. 

 Jan-Petter Dahl /TV 2
DEEPFAKE: TV 2 anmelder deepfake-video som misbruker nyhetsankeres identitet, sier TV 2s nyhetsredaktør Karianne Solbrække. Foto: Jan-Petter Dahl /TV 2

Anmelder

Nyhetsredaktør i TV 2, Karianne Solbrække, sier videoen er et skremmende eksempel på hvordan redaktørstyrte medier kan misbrukes for å svindle folk.

– Dette er dessverre et problem som er økende, og som vi må forberede oss på at vil øke fremover. TV 2 anmelder selvsagt denne saken, og jeg håper politiet prioriterer den.

TV 2 har vært i kontakt med Oljefondet, som ikke ønsker å kommentere saken.

Økokrim sier til TV 2 at de stadig ser flere eksempler hvor deepfake-teknologien brukes til å lage troverdige videoer eller lydklipp som i realiteten er bedrageri – og er bekymret for at bruken vil øke de kommende årene.

Statsadvokat i Økokrim, Jon André Hvoslef-Eide, forteller at de har dialog med flere sosiale medier-aktører, blant annet gjennom internasjonalt politisamarbeid hvor digitale bedragerier er tema.

– Disse store teknologiselskapene sitter nærmest både på problem og løsning, og bør ta ansvar for å forebygge og stanse bedragerier på egne plattformer.

Et kappløp

I takt med at KI-verktøyene for å lage deepfakes stadig blir mer avanserte, jobber også stadig flere med å utvikle teknologi som automatisk skal oppdage de falske videoene. 

Jørgensen forteller at det blant annet er planer om å opprette en ny doktorgradsstilling på NTNU, hvor det er noen som skal forske på å automatisk oppdage generert tekst, bilde og video.

 Kai T. Dragland / NTNU
KI-FORSKER: Forsker ved NTNU i Trondheim, Oskar Jørgensen, ber folk være på vakt når det gjelder KI-teknologi. Foto: Kai T. Dragland / NTNU

– Det er et kappløp hvor de generative modellene blir bedre. Og så blir man bedre på automatisk å oppdage de, sier Jørgensen. 

Han påpeker at det et ansvar som ligger blant annet hos de store plattformene hvor slike videoer typisk spres, som for eksempel Facebook.

– Men det er så klart vanskelig å fange opp alt, og det vil jo være sånn at noen ting dukker opp, og da må man være årvåken. 

Read Entire Article