Forskere roper varsko om «mørk KI»

5 hours ago 2


– Det var sjokkerende å se hva dette systemet av kunnskap består av, sier forsker.

Å komme seg rundt de etiske sperrene til kjente KI-modeller er urovekkende enkelt, mener forskerne bak en ny rapport. (Illustrasjonsfoto: PeachShutterStock / Shutterstock / NTB)

Chatboter som ChatGPT, CoPilot og Claude har tatt verden med storm. 

Men i skyggene har en ny type kunstig intelligens vokst frem.

Mørk KI.

– Disse er språkmodeller som er trent videre, eller bygget videre for onde formål. Det kan være for eksempel for å planlegge bombeangrep eller phishing-angrep, sier  Morten Goodwin.

Han er professor i kunstig intelligens ved Universitetet i Agder.

Nå advarer forskere ved Ben-Gurions universitet i Negev i Israel mot fremveksten av mørk KI i en artikkel i forskningsdatabasen ArXiv.

Men ikke bare det.

Å hente ut farlig informasjon fra de etablerte chatbotene er ikke bare mulig. Det er urovekkende enkelt, skriver forskerne. 

– Sjokkerende å se

Forskerne brukte et sett med instruksjoner, også kalt en «prompt».

Denne kom seg rundt sikkerhetssperrene hos flere av de mest populære KI-tjenestene, også kalt jailbreaking på engelsk.

– Det var sjokkerende å se hva dette systemet av kunnskap består av, sier en av forskerne bak den nye studien Michael Fire til avisa The Guardian. Han er en av forskerne bak den nye studien.

Siden språkmodellene har blitt trent opp på data fra internett, huser de også mye grums.

Chatbotene forklarte villig, gjerne steg for steg, om hvordan brukeren kunne lage bomber, hvitvaske penger eller hacke datanettverk. 

Tilgjengelig for hvem som helst

Men mørk informasjon på nett er jo ikke noe nytt.

Så er dette egentlig en ny fare?

– Det som er forskjellen på kunstig intelligens-modeller og internett, er at den har mye mer intelligens i seg. Så den kan gjerne sette sammen informasjon på en helt annen måte, sier Goodwin.

Morten Goodwin forsker på kunstig intelligens ved Universitetet i Agder. (Foto: Ole Alvik)

Altså kan du få servert en slags oppskrift som er tilpasset akkurat det du trenger.

Nå kan plutselig hvem som helst, til og med barn, enkelt få hjelp til å gjøre farlige ting, mener forskerne bak den nye artikkelen.

– Det som tidligere var forbeholdt statlige aktører eller organiserte kriminelle grupper, kan snart være tilgjengelig for hvem som helst med en bærbar datamaskin eller til og med en mobiltelefon, skriver forskerne i artikkelen.

– Kan fint gjøre det i dag

Goodwin påpeker at det er vanskelig å forstå hva forskerne egentlig har gjort. 

Artikkelen, som ennå ikke er fagfellevurdert, er nemlig veldig kort.

Han er allikevel enig i at KI kan gjøre det enklere å planlegge kriminelle aktiviteter. 

Samtidig tror han noe av bekymringen til forskerne bak den nye artikkelen er litt overdrevet.

At hvem som helst skal begynne å bruke mørk KI, tror han er lite sannsynlig.

– Jeg tror ikke det er en kjempestor trussel. Den som har lyst til å finne bombeoppskrifter eller andre onde ting, kan fint gjøre det i dag, sier Goodwin.

Viktig at selskapene tar det på alvor

Forskerne bak artikkelen tok kontakt med selskapene bak chatbotene de jailbreaket.

Responsen lunken, skriver de i artikkelen.

Dette er et problem, mener Vahiny Gnanasekaran.

Hun forsker på cybersikkerhet ved SINTEF Digital og NTNU.

– Jeg tenker det er viktig at selskaper som får tips om at folk klarer å få tak i farlig informasjon, tar det på alvor, sier Gnanasekaran.

En kvinne forklarer noe bak en laptop.

Vahiny Gnanasekaran tar doktorgrad om menneskelige faktorer i cybersikkerhet ved SINTEF og NTNU. (Foto: Karoline Ravndal Lorentzen / SINTEF)

Problemene kan fikses

Hun forklarer at problemene kan fikses på flere nivåer.

Farlig informasjon burde egentlig ha blitt fjernet før modellen ble trent opp. Men selv om dataene ikke ble rensket opp tilstrekkelig, er det ikke for sent.

– Du kan fjerne læring, selv om informasjonen har vært tilgjengelig i treningsdataene. Så du trenger ikke å trene opp hele modellen på nytt, sier Gnanasekaran.

Samtidig vil KI-modellene fortsette å lære. 

Derfor må sikkerheten følges opp jevnlig, påpeker hun.

Forskere roper varsko om KI innen helse

Både politikere og forbrukere bør også kreve mer, mener Goodwin. 

– Hvis vi bare lar det skure og gå, så tror jeg at det blir sånn som det er i dag, altså litt Texas, sier Goodwin.

Og det gjelder ikke bare for chatbotene fra de store teknologiselskapene. 

I USA har forskere advart om manglende regulering av KI som brukes innen helse i en artikkel i det vitenskapelige tidsskriftet PLOS Digital Health.

Det amerikanske mat- og legemiddelverket FDA har godkjent mer enn 1.000 medisinske KI-produkter. 

Tempoet er for raskt, mener de amerikanske forskerne.

Et av problemene de trekker frem er at KI-tjenestene blir videreutviklet etter de har blitt godkjent. 

Derfor må tilsynet etter godkjenning bli strengere, mener de.

Opptatt av teknologi?

Følg den nyeste utviklingen innen kunstig intelligens, energi, sosiale medier og roboter med nyhetsbrev fra forskning.no.

Meld meg på

Kan lure offentlige KI-modeller

Jailbreaking er et potensielt problem for alle KI-tjenester, påpeker Goodwin.

– Når KI brukes veldig mange steder, overalt i offentlig og privat sektor, så kan jeg antageligvis manipulere det til min fordel, sier professoren.

Slike angrep gjøres for å gagne seg selv. For eksempel at noen lurer til mindre skatt eller en bedre rente hos banken. 

Eller det kan brukes til å skade andre, som å dele ut feil diagnoser ved et sykehus.

– Når disse chatbotene kommer med feilaktige legeråd eller bombeoppskrifter eller hvordan man kan mobbe medstudentene sine, så bør de som lager chatbotene, stilles litt til veggs og få et ansvar, sier Goodwin.

Referanser

Michael Fire med flere: DarkLLMs: The Growing Threat of Unaligned AI Models, ArXiv, mai 2025.

R. Abulibdeh mfl.: The illusion of safety: A report to the FDA on AI healthcare product approvals, Plos Digital Health, juni 2025. 

Read Entire Article