«Min manns venn brukte KI til å lage pornofilmer av meg», sa venninnen min. Problemet er strukturelt.

3 hours ago 2



Denne beretningen stammer fra en venninne, men kunne like gjerne vært hentet fra en varslingssak eller en etterforskningsrapport, skriver Shirin Tinnesand. Foto: Lars Schmidt

Dette skjedde venninnen min. Men problemet er strukturelt.

Publisert: 19.01.2026 09:58

Venninnen min og mannen hennes ble invitert til en venn som lovte at de skulle få se noe «kult». På TV-en ble det vist en pornofilm. Lite kunne ha forberedt min venninne på at deepfake KI-teknologi fremstilte henne – sammen med mannens ekskjærester – som deltager. Hun ble forsikret om at videoen var ment som en spøk. Likevel avslører de virkelighetsnære bildene en virkelighetsfjern holdning til hvordan KI-verktøy kan brukes – og misbrukes.

Denne beretningen stammer fra en venninne, men kunne like gjerne vært hentet fra en varslingssak eller en etterforskningsrapport.

Jeg er styremedlem i bistandsorganisasjonen Humans for Humans, som arbeider med moderne slaveri og mental helse. Selv om min venninnes fortelling er personlig, er problemstillingen strukturell. Den synliggjør et alvorlig rettslig tomrom: Norsk lovgivning gir i dag et utilstrekkelig vern mot digital bildemanipulasjon og seksualisering uten samtykke.

Et voksende problem

Teknologien som muliggjør dette, har beveget seg fra marginale nettfora og inn i hverdagen ved å bli tilgjengeliggjort for helt vanlige mennesker.

På nyttårsaften kom en advarsel fra CopyleaksCopyleaksCopyleaks er et verktøy som sjekker om innholdet er originalt. . De siste to dagene hadde brukere på X meldt om at plattformen Grok ble brukt til å lage seksualiserte bilder uten samtykke, spesielt av kvinner og barn.

Når grensene mellom fantasi og virkelighet viskes ut og lovverket ikke holder tritt med teknologien, tar overgrep nye former

Dette er et voksende problem, ifølge teknologieksperter. Copyleaks sier at det lages ett slikt bilde hvert minutt. Det som tidligere var forbeholdt lukkede nettfora og «dark web», er nå bare noen tastetrykk unna.

Alt som kreves, er et bilde – ofte hentet fra sosiale medier – og en tekstinstruksjon.

Nye former for overgrep

Enkelte brukere påstår at bildene ikke er farlige fordi de er falske. Men for dem som rammes, kan konsekvensene være alvorlige: psykiske problemer, et dårlig rykte, trakassering, utpressing og i noen tilfeller tvang inn i seksuelle handlinger på nett. Når grensene mellom fantasi og virkelighet viskes ut og lovverket ikke holder tritt med teknologien, tar overgrep nye former.

Europol og Europarådet har advart om økt teknologi- og nettbasert menneskehandel. Digitale plattformer og KI-verktøy brukes til å rekruttere, kontrollere, true og utnytte, særlig kvinner og barn.

Når bildemanipulasjon uten samtykke blir vanlig, blir det lettere å begå overgrep. Deepfake-porno blir et verktøy for digital menneskehandel: Bilder brukes til å lokke, true eller presse noen til seksuell utnyttelse, ofte over landegrenser og uten at loven kan hindre det.

Samtidig kuttes støtte til organisasjoner som beskytter ofre for menneskehandel, spesielt i USA, men også i Europa.

Vi trenger klare forbud

Teknologi er ikke nøytral. Den formes av verdiene vi velger å la prege utviklingen. Når mennesker blir redusert til materiale for KI-laget porno, er det ikke innovasjon, men et svik. Misbruk må forebygges, og det må reageres raskt gjennom lovverket når det skjer.

Danmark har nylig styrket borgernes digitale personvern for å møte utfordringene med KI og deepfakes. Norske myndigheter bør gjøre det samme.

Vi trenger klare forbud mot produksjon og spredning av ikke-samtykkebaserte KI-genererte seksuelle bilder, strengere ansvar for plattformer og reelle sanksjoner mot misbruk. Samtidig må støtten til forebygging av menneskehandel og hjelp til ofre styrkes.

Read Entire Article