Lei av at ChatGPT selvsikkert hevder noe som er usant? Problemet er at chatbotene mangler skam.
Publisert: 14.09.2025 11:52
Selv den toppmoderne ChatGPT 5 hevder at tallet 2 lukter mynte – og at fargen hvit smaker melk. Om du har opplevd at språkmodeller hardnakket bløffer, er du ikke alene. I en ny artikkel fra OpenAI med tittelen «Why language models hallucinate», mener forskerne å ha avslørt en sentral årsak. Det lønner seg nemlig for den kunstig intelligente modellen å bløffe. Attpåtil er det vi mennesker som har stimulert den til det.
Problemet er nemlig at nesten samtlige målestokker som skal måle prestasjon, premierer modellene for å svare noe. Da lønner det seg aldri å svare «vet ikke». Siden så godt som alle konkurrerer om å komme høyest på disse målestokkene, er det ikke annet enn logisk at modellene ofte farer med hallusinasjoner (som er fagbegrepet for løgn eller bløff).
Les hele saken med abonnement