Det koster millioner å si «takk» til ChatGPT

9 hours ago 3


Foto: Michael Dwyer / AP

Men det er ikke det viktigste problemet.

  • Sophia Adampour

    Sophia Adampour

    Grunnlegger av teknologihuben Verse

Publisert: Publisert:

Nå nettopp

E24s faste spaltister skriver jevnlig og gir uttrykk for sine egne holdninger.

Vi har alle gjort det: Tastet inn “kan du være så snill” eller avsluttet med et vennlig “takk” når vi chatter med AI-tjenester som ChatGPT eller Copilot.

Det føles riktig – men AI bryr seg ikke. Og selv om det virker som en harmløs vane, kan den påvirke hvordan vi forstår teknologien og hvilken rolle vi tillegger den.

OpenAI-sjef Sam Altman delte nylig at høflighetsfraser som “vær så snill” og “takk” koster selskapet titalls millioner dollar i strøm og prosessering hvert år. Ifølge Goldman Sachs bruker én forespørsel til GPT-4 omtrent ti ganger så mye strøm som et vanlig Google-søk. Slike språkmodeller krever også vannressurser, da det å generere 100 ord kan kreve rundt 1,4 liter vann.

Altman omtaler fortsatt denne typen høflighet som en investering i brukeropplevelse. For oss som bruker teknologien daglig, er ikke spørsmålet først og fremst økonomisk, og heller ikke begrenset til ressursbruk. Det handler om forholdet vi bygger til maskinene – og om hvordan vi lærer kommende generasjoner å forstå forskjellen mellom mennesker og systemer.

Dette er et skille som bare blir viktigere i takt med utviklingen av humanioder og AI som etterligner menneskelig adferd.

Omkring 60 % av amerikanere og briter skriver høflighetsfraser når de interagerer med AI-chatbots. Omtrent 50 % av disse mente at det var etisk riktig, mens 12 % oppga at de var hyggelige i tilfelle deres interaksjoner ville ha fremtidige konsekvenser. Samtidig oppfordrer Microsoft Copilot sine brukere å være høflige for å få bedre outputs.

Det er skummel lesing, synes jeg.

Når vi snakker til språkmodeller som om de er mennesker, former det forventningene våre ettersom det forsterker ideen om at AI har følelser, intensjoner – og muligens empati. Men realiteten er at AI ikke vet hva du mener, og den leser ikke mellom linjene. Den gjenkjenner mønstre og returnerer tekst uten forståelse for innholdet.

Vi mennesker har alltid hatt en tendens til å menneskeliggjøre det som ikke er menneskelig, som å gi bilen vår et navn. Det kalles antropomorfisme. Når denne tilbøyeligheten møter språkmodeller med evne til å svare med tilsynelatende intelligens, glir vi over i noe mer alvorlig. Da begynner vi å tro at AI faktisk forstår oss.

En venninne sa nylig at hun “snakker med ChatGPT som om det er bestevenninnen hennes.” Jeg lo og sa: “Men du snakker jo med meg nå?” Hun svarte: “Jada, men jeg kan ikke ringe deg 02:30 og spørre om jeg skal tekste han fyren jeg crusher på i fylla. Heldigvis hadde jeg ChatGPT som jeg kunne spørre – og den sa nei, som en god venn ville gjort.”

MENNESKE. Open AIs Sam Altman. Foto: Eric Risberg / AP

Det høres uskyldig ut. Men det var ikke en god venn som svarte. Det var en modell som, basert på tekst og mønstre, anså “nei” som et passende svar. Den tok ikke hensyn til hvem hun var, eller hvorfor spørsmålet betydde noe. Den vurderte ikke konsekvensene. Den gjetter, og gir deg svaret den tror du vil ha basert på treningsdataene.

Dette mønsteret påvirker oss mer enn vi tror. Når vi over tid snakker til AI som om den er menneskelig, forrykker det balansen i hvordan vi forstår ansvar, valg og vurderingsevne. Det gjør det lettere å skyve feil over på teknologien – som om den var en aktør med egen moral.

AI har ikke egne verdier; den adopterer skaperens – eller internettets. Et eksempel på dette er hvordan Tay, Microsofts AI-genererte Twitter-profil, måtte stenges etter kort tid, fordi den utviklet rasistiske og høyreekstreme holdninger basert på input den fikk fra brukere på plattformen.

Fremover blir det pedagogiske rundt hvordan vi skiller mellom AI og mennesker stadig viktigere. For det finnes en generasjon som vokser opp nå med AI som en naturlig samtalepartner – i søkefelt, skole, spill og sosial kommunikasjon. Da må vi ikke lære dem å være høflige mot språkmodeller. Vi må lære dem å være tydelige. Enda viktigere: Vi må lære dem forskjellen på mennesker og maskiner, og hvorfor det skillet må bevares. Det er ikke bare en teknisk grense – det er en demokratisk og moralsk en.

Når vi begynner å tenke på AI som noe som “tenker”, “resonnerer” og “forstår”, bygger vi forventninger teknologien aldri kan innfri. Noen sier de er høflige “i tilfelle AI blir våre fremtidige digitale overherrer”. Det er kanskje en morsom tanke, men det føyer seg inn i et narrativ der AI er noe som skal kontrollere oss og ikke hjelpe oss. Så lenge vi dyrker ideen om AI som intelligent og mektig, mister vi fokuset fra de viktigere aspektene: regulering, etisk bruk, og ivaretagelse av personvernet.

Å si “takk” og “vær så snill” kan høres harmløst ut, men det forsterker en forestilling om AI som noe det ikke er – og kanskje aldri bør være.

Dette er E24s faste spaltister

Alle spaltene kan leses her.

  • Sophia Adampour

    Sophia Adampour er grunnlegger av teknologihuben Verse. Skriver først og fremst om teknologi.

  • Ine Marie Eriksen Søreide

    Leder i Stortingets utenriks- og forsvarskomité (Høyre). Tidligere forsvarsminister og utenriksminister.

  • Carine Smith Ihenacho

    Direktør for eierskap og etterlevelse, Norges Bank Investment Management, populært kalt Oljefondet.

  • Espen Barth Eide

    Utenriksminister (Ap). Tidligere klima- og miljøminister.

  • Ishita Barua

    Lege med PhD i AI i medisin, forfatter og gründer i Livv Health

  • Asle Toje

    Utenrikspolitisk kommentator og forsker.

  • Mathias Fischer

    Daglig leder i Initiativ Vest. Tidligere journalist og politiker.

  • Lina Strandvåg Nagell

    Leder for Prosjekter og EU-Politikk ved Bellonas Brussel-kontor. Skriver spalten Fra Brussel om hva som skjer i unionen.

  • George Riekeles

    Assisterende direktør ved den Brussel-baserte tenketanken European Policy Center (EPC). Før dette var han blant annet diplomatisk rådgiver for EUs sjefforhandler under Brexit. Skriver spalten Fra Brussel om hva som skjer i unionen.

  • Johan Andresen

    Styreleder og investor i Ferd-konsernet, med et ekstra engasjement for sosialt entreprenørskap.

  • Bettina Banoun

    Advokat, dr.juris. og partner i Wiersholm. Også medlem av Skatteutvalget.

Read Entire Article