KOMMENTAR: Fakta må ikke føles riktige, de må være riktige.
Publisert: Publisert:
For mindre enn 20 minutter siden
Kommentar
Dette er en kommentar. Kommentarer skrives av Aftenbladets kommentatorer, redaktører og gjestekommentatorer, og gir uttrykk for deres egne meninger og analyser.
Tre feil. Tre eksempler på hvordan kunstig intelligens (KI) har blitt brukt – og misbrukt – i journalistikk og offentlig forvaltning.
- I USA trykket Chicago Sun-Times en sommerleseliste der halvparten av bøkene ikke finnes.
- I Danmark tilskrev Politiken forfatteren Harald Voetmann feil titler og priser i helga – trolig hallusinerthallusinertÅ oppfatte noe som ikke er virkelig. I denne konteksten betyr det at KI har "funnet på" informasjon av KI.
- Og i Norge måtte Tromsø kommune stanse en hel skoleprosess der de skulle legge ned flere skoler og barnehager – etter at det ble avslørt at flere av kildene i kunnskapsgrunnlaget var oppdiktet.
Fellesnevneren? Ingen opplyste om at de hadde brukt kunstig intelligens. Ingen fanget opp feilene før publisering. Og i alle tilfeller ble tekstene behandlet som fakta.
En bok du aldri skrev
– Den har jeg aldri skrevet, sier professor Thomas Nordahl om en bok som står oppført som kilde i Tromsø kommunes forslag til ny skolestruktur. Professor Peder Haug reagerer på det samme – han er sitert fra en bok som ikke eksisterer. Kommunens forslag inkluderte oppdiktede forfatterskap, og sitater som aldri er sagt. Likevel skulle disse brukes som faglig grunnlag for å legge ned skoler.
Kommunedirektøren har nå stoppet prosessen i et halvt år. Forsker Jonas Stein kaller det «den første store KI-skandalen i norsk offentlig sektor». Han har antakelig rett. Og det blir neppe den siste.
Roboten trenger en hånd å holde i
I Chicago Sun-Times brukte en journalist ChatGPT til å lage en anbefalt leseliste. Resultatet? Bøker som ikke finnes, men med overbevisende sammendrag og ekte forfatternavn. I Politiken skjedde det samme i en faktaboks om en prisbelønt dansk forfatter. Feilene var grove, men subtilt presentert. I Danmark er redaktører og medieetikere urolige: Hvis dette er starten, hva venter oss da?
Spørsmålet gjelder ikke teknologien. Det gjelder hvem som har ansvaret når teknologien brukes.
I alle sakene er det først etter at publikum oppdager feil at de ansvarlige erkjenner bruk av KI. Chicago-redaksjonen unnskylder. Politiken retter i spalten «Fejl og Fakta»: Ved en beklagelig fejl ble ikke kontrol udført ordentligt. I Tromsø sier kommuneledelsen at teksten ble skrevet av mennesker – men med KI som hjelpemiddel. Hva betyr egentlig det?
Og hva betyr det for tilliten?
For lesere, velgere og foreldre er dette ikke bare «uheldige feil». Det er et tillitsbrudd. Når feilinformasjon brukes som grunnlag for politiske vedtak eller presenteres som journalistisk fakta, undergraves hele prosjektet. Forvaltning og journalistikk skal bygge på kontroll og kildekritikk, ikke effektiv tekstproduksjon.
Fakta må komme fra ... fakta!
Generative språkmodeller, som ChatGPT, lager overbevisende tekst, men de gjetter – og de gjør det med stor selvtillit. Det betyr at de ikke kan brukes som fakta-kilder i seg selv. Men det betyr ikke at de er ubrukelige.
For hvis vi kombinerer språkmodellen med gode kunnskapskilder – for eksempel ved hjelp av teknologien RAG (retrieval-augmented generationretrieval-augmented generationEn teknologisk metode der KI-modellen bruker eksterne kunnskapskilder til å hente informasjon før generering av tekst.) – kan vi få det beste fra to verdener: flytende språk og faktabasert innhold. I praksis betyr det at KI-modellen henter informasjon fra pålitelige kilder før den skriver. Den gjetter ikke – den slår opp.
Brukt på denne måten er KI et kraftig verktøy i journalistikken og offentlig forvaltning. Men da må vi vite hva den bygger på – og fortsatt ha mennesker som forstår og kontrollerer resultatet.
Få inn folka!
Vi trenger å løfte kunnskapsnivået, og vi trenger deretter minst to ting:
- Etiske retningslinjer: Redaksjoner, kommuner og organisasjoner må lage klare regler for hva KI skal og ikke skal brukes til.
- Menneskelig kontroll: Det holder ikke å si at «vi pleier å dobbeltsjekke». Enten du er redaktør, kommunedirektør eller saksbehandler – du må vite hva du publiserer.
For når KI skriver, men ingen leser før publisering, da kan skadevirkningene bli langt større enn noen feilaktige boktitler. De kan rive ned det som tar år å bygge opp: tillit.
PS: Da jeg ba Schibsteds KI-tittelgenerator om å foreslå en tittel på denne kommentaren, så fikk jeg forslaget: «VG-kommentar: Kunstig intelligens i journalistikk og offentlig forvaltning.»
Jeg brukte den ikke.
Publisert:
Publisert: 27. mai 2025 12:40