«Jeg tror egentlig jeg stoler mer på ChatGPT enn på leger», sa pasienten

2 hours ago 2



Studier antyder at mange opplever KI-svar som mer empatiske enn legers – selv når de vet at det er en maskin, skriver fastlege Ken Le Van. Foto: Privat

KI kan ikke ta ansvar. Den har ingen omsorg.

Publisert: 24.02.2026 15:00

«Jeg tror egentlig jeg stoler mer på ChatGPT enn på leger.»

Hun sa det rolig. Ikke aggressivt. Ikke provoserende. Bare konstaterende. Hun var i slutten av 20-årene, hadde slitt med uro, søvnproblemer og diffuse smerter. Før hun kom til meg, hadde hun allerede skrevet alt inn i en kunstig intelligens (KI)-tjeneste. Hun hadde fått en liste over mulige diagnoser, forslag til blodprøver, en strukturert gjennomgang av symptomene – mer detaljert enn mange legekonsultasjoner.

«Det var mer oversiktlig», sa hun. «Og den hadde bedre tid enn deg.»

Forskyvning

Jeg er fastlege. Jeg bruker kunstig intelligens hver dag. Jeg underviser kolleger i hvordan vi kan bruke det trygt. Jeg mener KI kan gjøre oss til bedre leger. Men i det øyeblikket kjente jeg at noe hadde flyttet seg. Ikke teknologien. Makten.

Hvis vi begynner å forveksle godt språk med ekte forståelse, har vi allerede flyttet en viktig grense

KI er alltid tilgjengelig. Den dømmer ikke. Den avbryter ikke. Den blir ikke stresset mellom to fulle timebøker. Den skriver rolig og pedagogisk uten at pasienten føler seg til bry. Studier antyder at mange opplever KI-svar som mer empatiske enn legers – selv når de vet at det er en maskin. Det burde gjøre oss urolige. Ikke fordi teknologien er ond. Men fordi den er friksjonsfri – og det friksjonsfrie oppleves som bedre.

La oss tenke ti år frem. Du har to alternativer: KI-basert primærhelsehjelp – rask, billig, effektiv. Eller en erfaren lege med tid, blikk og relasjon. Hva velger du? Hva velger de som har god råd? Hva velger de som ikke har det? Vi kan stå foran et helsevesen der maskinen er standard – og menneskelig nærvær er premium. Ikke fordi noen ønsket det slik. Men fordi effektivitet vinner.

Hvem er ansvarlig?

KI kan formulere empati. Den kan skrive: «Jeg forstår at dette må være vanskelig for deg.» Men den kjenner ikke pausen før svaret. Den merker ikke blikket som flakker. Hvis vi begynner å forveksle godt språk med ekte forståelse, har vi allerede flyttet en viktig grense.

Når en lege gjør en feil, vet vi hvem som har ansvaret. Men når vurderingen er tungt KI-assistert – hvem står juridisk og moralsk ansvarlig? Legen? Teknologiselskapet? Jo mer beslutningsgrunnlaget flyttes til algoritmer, jo mer vil dette utfordres.

Den dagen pasienten sa at hun stolte mer på KI enn på meg, var det ikke et angrep. Det var et signal om hva som skjer når vi lar det effektive vinne uten å stille spørsmål.

Ekte omsorg

KI kan ikke ta ansvar. Den har ingen omsorg. Den produserer tekst som ligner forståelse, men den kjenner deg ikke. Det er ikke en begrensning som løses i neste versjon. Det er en fundamental forskjell mellom maskin og menneske.

Den type helsevesen er ikke uunngåelig. Det bygges nå – i hvordan vi organiserer, finansierer og prioriterer. Vi kan velge det effektive og friksjonsfrie. Eller vi kan holde fast ved at ekte omsorg krever et menneske som bærer ansvaret og faktisk bryr seg. Den avgjørelsen tas nå. La oss ikke la den gli fra oss.

Read Entire Article