– Forsmak på det som kommer.
SAMEER AL-DOUMY / AFP / NTB
For første gang har Google oppdaget at kriminelle hackere brukte kunstig intelligens til å utvikle et såkalt «zero-day»-angrep – en sårbarhet som programvareutviklerne ikke visste om.
Hackerne planla et massivt angrep som skulle omgå tofaktorautentisering på et populært administrasjonsverktøy, avslører Google Threat Intelligence Group i en ny rapport.
– Vi er svært sikre på at angriperen sannsynligvis brukte en AI-modell som støtte i arbeidet med å oppdage og utnytte denne sårbarheten, skriver Google.
Selskapet oppdaget angrepet i tide og varslet programvareprodusenten, som fikk fikset feilen før hackerne rakk å slå til.
Sårbarheten stammet ikke fra vanlige programmeringsfeil eller «slurv» i koden. Det var derimot snakk om en fundamental logikkfeil, der utvikleren hadde laget systemet til å stole blindt på bestemte forespørsler.
Mens tradisjonelle sikkerhetsverktøy sliter med å oppdage slike feil, er avanserte AI-modeller gode til å identifisere denne typen logiske brister.
– Toppen av isfjellet
Google fant flere tegn i koden som tydet på at den var laget med AI. Blant annet inneholdt Python-scriptet en «hallusinert» sikkerhetsscore og en strukturert, lærebokaktig formatering som er typisk for AI-modeller.
– Det er en forsmak på hva som kommer, sier John Hultquist i Google Threat Intelligence Group til New York Times.
– Vi tror dette er toppen av isfjellet. Dette problemet er sannsynligvis mye større, dette er bare det første håndgripelige beviset vi kan se, fortsetter han.
Selskapet vil ikke navngi hverken hackergruppen, det berørte verktøyet eller hvilken AI-modell som ble brukt, men opplyser at det ikke var Googles egen Gemini-modell.
Sårbarheten ville ha gitt hackerne tilgang til interne nettverk hos organisasjoner som bruker programvaren, selv om de også ville trengt gyldige brukernavn og passord.

10 hours ago
4









English (US)