ChatGPT bløffer fordi den ikke kjenner på skam

4 days ago 12



Lei av at ChatGPT selvsikkert hevder noe som er usant? Problemet er at chatbotene mangler skam.

Det begynner å bli vanskelig å finne spørsmål som modellene svarer feil på, men som mennesker kan svaret på. Vi måtte få hjelp fra GPT-5 for å finne på dette fiffige spørsmålet, som selv GPT-5 konsekvent svarer feil på. Foto: Paal Audestad / Aftenposten

Publisert: 14.09.2025 11:52

Selv den toppmoderne ChatGPT 5 hevder at tallet 2 lukter mynte – og at fargen hvit smaker melk. Om du har opplevd at språkmodeller hardnakket bløffer, er du ikke alene. I en ny artikkel fra OpenAI med tittelen «Why language models hallucinate», mener forskerne å ha avslørt en sentral årsak. Det lønner seg nemlig for den kunstig intelligente modellen å bløffe. Attpåtil er det vi mennesker som har stimulert den til det.

Problemet er nemlig at nesten samtlige målestokker som skal måle prestasjon, premierer modellene for å svare noe. Da lønner det seg aldri å svare «vet ikke». Siden så godt som alle konkurrerer om å komme høyest på disse målestokkene, er det ikke annet enn logisk at modellene ofte farer med hallusinasjoner (som er fagbegrepet for løgn eller bløff).

Les hele saken med abonnement

Read Entire Article