Den norske staten har slukt tekgigantenes PR rått.
Publisert: 04.11.2025 23:18
Nylig sendte nyhetsbyrået NTB ut en nyhetsmelding om Telenors sikkerhetsrapport. Meldingen var full av feil. Det var ikke bare litt feil, heller: Alle sitatene var feil, truslene var endret, og navnet på sikkerhetsdirektøren var feil. Journalisten hadde brukt kunstig intelligens (KI) til å lage sammendrag av en rapport i stedet for å lese den selv.
«Feil bruk av KI», sier NTBs nyhetsredaktør Christina Dorthellinger Nygaard. Nei. Det er enda et eksempel på at KI ikke skulle ha vært brukt i det hele tatt.
Språkmodeller som Copilot og ChatGPT hører ikke hjemme i kunnskapsarbeid. Faktisk truer teknologien hele kunnskapssystemet vårt. Men likevel har den norske staten slukt tekgigantenes PR rått: Norges strategi er å få oss til å bruke språkmodeller overalt.
Det er en svært dårlig idé. NTB trenger ikke mer kursing av journalister. De må rett og slett slutte å bruke språkmodeller til å lage oppsummeringer.
Gjør altfor mange feil
Språkmodeller gjør altfor mange feil, og de gjør feil på en overbevisende måte som er ressurskrevende å gjennomskue. Dette vil ikke bli noe særlig bedre med tiden heller, fordi teknologien helt grunnleggende sett bygger på sannsynlighet.
Dette er et demokratisk problem. Telenors sikkerhetsrapport fokuserer på beredskap i «den mest alvorlige geopolitiske situasjonen siden andre verdenskrig». Men i NTBs KI-sammendrag nevnes ikke krig eller totalforsvar, her er truslene ekstremvær, gammel teknologi og svindlere. Dette er en type vridning vi kan komme til å se mer av når vi bruker språkmodeller som eksplisitt er utviklet for å fremme «amerikanske verdier», slik selskaper som OpenAI, Microsoft og Google nå er pålagt å gjøre om de skal delta i offentlige anbudsrunder i USA.
I dette tilfellet ble feilen oppdaget, men ikke før meldingen var delt videre av mange av landets aviser. I andre tilfeller blir slike KI-genererte feil ikke oppdaget i tide, som vi så i avsløringen for et par uker siden om at Riksrevisjonen brukte KI-genererte tall da de fortalte Stortinget at 155.000 årsverk i offentlig sektor kan effektiviseres bort ved bruk av KI.
Minst tre store problemer
Språkmodeller modellerer ikke virkeligheten, de modeller språk. De lager ikke tekst basert på fakta og årsakssammenhenger, de lager tekst som ser ut som om den kan være riktig.
Språkmodeller effektiviserer ikke kunnskapsarbeid. De ødelegger det. Det er mer arbeidskrevende å sjekke at et sammendrag av en rapport er korrekt enn det er å skrive sammendraget selv. Du må jo likevel lese rapporten for å vite om sammendraget er korrekt – men da har du ikke spart noe tid på å bruke KI. Og det KI-genererte sammendraget ser jo så overbevisende ut.
Det er svært krevende å være kritisk til en tekst som er glattpolert og skråsikker som bare en språkmodell kan være.
Det er (minst) tre store problemer med å bruke KI i kunnskapsarbeid i yrker som journalistikk, skole, offentlig administrasjon, prosjektledelse og forskning:
- Språkmodeller gjør mange feil og på en måte som kan være vanskelig å oppdage. De mislykkes også i enkle kontoroppgaver. 95 prosent av bedrifter som har tatt i bruk KI, har ikke sett noen produktivitetsvekst. Det er kanskje fordi språkmodeller gjør det så lett å produsere dårlige produkter som ser greie ut ved første øyekast, men skaper merarbeid for andre enn oss selv.
- Når vi bruker språkmodeller, svekkes vår egen evne til å tenke kritisk. For eksempel viser studier at leger blir dårligere til å gjenkjenne kreft når de bruker KI, og at studenter som bruker ChatGPT, over tid blir dårligere til å skrive selv. Språkmodellene er også designet for å jatte med oss så vi skal bruke mer tid på dem. Dette er kommersielle produkter som er designet for å være avhengighetsskapende.
- Problemet med KI-bias er ikke løst. Vi kjenner allerede godt til kjønnsfordommene i språkmodeller. I NTB-eksempelet ser vi at den KI-genererte sikkerhetsdirektøren fikk et oppdiktet mannsnavn, Håkon Berg, og tilegnes forordet som faktisk er skrevet av administrerende direktør Birgitte Engebretsen. Det at en kvinne byttes ut med en mann, er en gjenganger i språkmodeller. Det vi ikke har vært like oppmerksomme på, er mer subtile ideologiske forskyvninger, som ikke å nevne krig og geopolitiske konflikter. Men begge deler er KI-bias. Birgitte ble til Håkon av samme grunn som geopolitikk ble til ekstremvær: Språkmodellen genererer tekst som er sannsynlig gitt treningsdataene, ikke tekst som er riktig.
NTB-tabben skyldtes at journalisten hadde brukt KI til å lage sammendrag av en rapport i stedet for å lese rapporten og tenke selv. Det er mye jobb å lese gjennom alle sammendragene for å sjekke at faktaene ikke blir forskjøvet eller endret.
Men dette er altså NTB, Norsk Telegrambyrå, pressebyrået som har vært en troverdig kilde for nyheter i Norge siden 1867.
Om NTB fortsetter å bruke KI i stedet for journalister, kan de avlyse feiringen av 160-årsjubileet i 2027 – innen den tid vil de enten være konkurs eller fullstendig irrelevante.
PR-byråene har gjort en utrolig god jobb
Vi har brukt et tiår eller to på å komme frem til at sosiale medier og adferdsbasert reklame kanskje bør reguleres og kan gjøre skade. Men nå går vi i samme fellen med språkmodeller – bare mye fortere. Og staten fører an.
I Storbritannia skal offentligheten fores KI intravenøst, som en pasient uten evne til å innta næring selv, «mainlined into UK’s veins». Her hjemme forkynner digitaliseringsminister Karianne Tung (Ap) at 80 prosent av norsk offentlig sektor skal bruke KI.
Det er ikke for sent å snu. Men dette er for stort til at du og jeg kan fikse det alene.
Vi trenger politikere og bedriftsledere som ikke bare kjøper salgsargumentene til OpenAI og Microsoft og Google. PR-byråene deres har gjort en utrolig god jobb med å få våre folkevalgte og arbeidsgivere og hele utdanningssystemet til å presse KI inn overalt.
Men nå kommer det eksempel på eksempel på at dette går galt. Vi blir ikke mer produktive. Vi blir dummere. Og enda verre, vi risikerer å miste hele kunnskapssystemet. Vi kan ikke lenger stole på noe.
For hvordan skal demokratiet egentlig fungere når vi ikke lenger kan stole på Riksrevisjonen, kommunale utredninger eller NTB?

3 hours ago
2













English (US)