Vi risi­kerer å miste kontroll med kunstig intel­ligens

8 hours ago 5



Stadig oftere overlates avgjørelser om ansettelse, oppsigelse og prestasjonsvurdering til kunstig intelligens.

Vi venter på at en virkelig stor KI-katastrofe skal ramme offentlig sektor, skriver Morten Goodwin. Bilder er av rådhuset i Tromsø. Kommunen brukte ChatGPT for å utrede en ny skolestruktur, med en skandale som resultat. Foto: Terje Pedersen / NTB

Selvfølgelig skjer dette. Kunstig intelligens i form av språkmodeller som ChatGPT eller CoPilot er raske, rimelige og, til tider, svært treffsikre. De hjelper oss med å skrive eposter, vurdere søknader og gi anbefalinger.

Morten Goodwin er professor i kunstig intelligens ved UiA, tilknyttet Senter for forskning på kunstig intelligens. En av Norges ledende eksperter på feltet og kombinerer rollene som forsker, foreleser, samfunnsdebattant, formidler og forfatter. Foto: Kristin Ellefsen / Fædrelandsvennen

Men hvor mye kontroll har vi egentlig over disse modellene? Svaret er urovekkende lite. Og hva skjer med rettssikkerheten når en KI-modell vi knapt forstår, får siste ord?

Da ChatGPT ble brukt av Tromsø kommune for å utrede en ny skolestruktur, ble bruken avslørt ved en rekke oppdiktede referanser. Overraskelsen lå ikke i at KI ble tatt i bruk av Tromsøs byråkrater, men i hvor skjødesløst det skjedde. Ingen hadde kontrollert kildene, og følgelig hadde ingen kontroll over hva ChatGPT hadde skrevet. Likevel peker hendelsen på noe langt større enn dårlig håndverk. Språkmodeller er allerede vevd inn i offentlig sektor, nesten uten ettertanke, uten klare rammer, og uten forståelse av hvilke konsekvenser uvettet bruk kan føre til.

80 prosent av offentlig sektor skal ta i bruk kunstig intelligens innen utgangen av 2025, og hele 100 prosent innen 2030, ifølge digitaliseringsminister Karianne Tung. I seg selv er dette positivt. Utfordringen oppstår når teknologien tas i bruk uten gjennomtenkte rammer. Da står vi i fare for langt mer enn referansefeil i en skolerapport. Vi åpner døren for systematiske feil fra KI-systemer vi verken styrer eller forstår hvordan er trent opp.

Vi venter på at en virkelig stor KI-katastrofe skal ramme offentlig sektor.

Ingen åpenhet i språkmodellene

KI-modeller som OpenAI ChatGPT og Microsoft CoPilot er trent på enorme datamengder. Det er slik de blir gode. Likevel vet vi lite om hvordan de er trent. Rent teknisk forstår vi godt hvordan de fungerer, men treningsgrunnlaget holdes skjult. OpenAI er like "åpen" som Den tyske demokratiske republikken var "demokratisk". Microsoft er minst like hemmelighetsfull. Dataene KI-modellen er trent med regnes som forretningshemmeligheter, og det er forståelig. Likevel endrer kravene seg når teknologien tas i bruk i offentlig sektor.

Ber du ChatGPT om å skrive en historie om en sykepleier, blir det en kvinne. Ber du CoPilot fortelle om en vellykket sjef, blir det en mann. Årsaken er enkel: slik ser treningsdataene ut. På nettet handler de fleste historier om sykepleiere om kvinner, og de fleste historier om sjefer om menn, og disse historiene er treningsdata for KI-modellene. I små og uformelle tekster virker dette kanskje uskyldig. Men når slike skjevheter sniker seg inn i beslutninger i offentlig sektor, kan konsekvensene bli langt mer alvorlige, i verste fall katastrofale. Og det handler ikke bare om kjønn. Også religion, bosted, utdanning og andre personlige kjennetegn kan prege vurderingene, uten at vi får vite det.

CoPilot er på full fart inn i offentlig sektor, men ingen vet hva den bygger vurderingene sine på. Vi har ingen garanti for at CoPilot er trent på data som behandler menn og kvinner likt, eller at ulike etniske grupper og samfunnslag er rettferdig representert.

Skjevheter i treningsdataene

Når en språkmodell settes til å lese CV-er fra en jobbutlysning, behandle byggesøknader i en kommune eller vurdere eksamensbesvarelser fra avgangsstudenter, fremstår det som både effektivt og nyttig. Tidsbesparende er det også. Men blir du rangert lavere i en jobbsøkerprosess, kan årsaken ligge i treningsdataene på KI-modellen som er blitt brukt.

Kanskje var skolen du gikk på, eller erfaring fra en bransje, dårlig representert i treningsmaterialet CoPilot en gang ble trent på. Og du får ikke innsyn, for avgjørelsene bygger på treningsdata som er og forblir skjult.

Nederland har allerede erfart hvor galt det kan gå når kunstig intelligens får makt og treningsdataene holdes skjult. Der ble spesialutviklede KI-modeller brukt for å avdekke trygdesvindel, ikke ChatGPT, CoPilot eller andre kjente språkmodeller. Men de såkalte intelligente systemene lærte seg mønstre som viste seg å være dypt urettferdige. Tusenvis av familier ble mistenkte som lovbrytere, ofte basert på diskriminerende kriterier som etnisk bakgrunn. Resultatet ble foreldre som ble feilaktig anklaget, fratatt støtte, drevet ut i økonomisk ruin og i mange tilfeller mistet foreldreretten. Ofrene kunne ikke klage, i alle fall ikke i praksis. Det var tross alt en KI-modell som hadde fattet avgjørelsen, trent på historiske data ingen hadde full oversikt over. Nettopp der lå kjernen i problemet. Ingen visste nøyaktig hva modellen hadde lært. Uten innsyn i treningsgrunnlaget, fantes heller ingen vei til rettferdighet.

Åpenhet må være en plikt

Kunstig intelligens er på full fart inn i offentlig sektor, og med god grunn. Men i denne prosessen kan ikke åpenhet være en luksus. Den må være en plikt. Det gjelder kunstig intelligens, det gjelder språkmodellene – og aller viktigst, dataene de er trent på.

Read Entire Article