Då falske nakenbilde av Taylor Swift blei posta på X, skapte det raskt oppstyr.
«Forferdeleg», sa Microsoft. «Urovekkande», sa Det kvite hus. Etter at bilda fekk fleire titals millionar visningar, såg X seg nøydde til å blokkere alle søk på Taylor Swift.
– Eg trur Taylor Swift-eksempelet berre er starten på noko mykje større.
Det seier Morten Goodwin, professor i kunstig intelligens ved Universitetet i Agder.
– Diverre kan 2024 bli «deepfake»-året, meiner han.
Bør vi vere bekymra?
– Nesten kvar månad kjem det ein ny algoritme som er enda litt betre enn den førre til å spreie falsk informasjon, seier Goodwin.
– Bør vi vere bekymra for dette?
– Openbert. Nå er denne teknologien så god og tilgjengeleg for alle.
Førsteamanuensis innan KI ved NTNU, Inga Strümke, trur superstjerner som Taylor Swift vil klare seg fint. Vanlege folk har derimot ikkje det same støtteapparatet.
– Dette har allereie skjedd med mange kvinner der ute, og også barn. Det er hysterisk utbreidd, seier ho.
Trur «deepfakes» kan påverke valet i USA
Strümke meiner at valpåverknad er eit større demokratisk problem enn ein «naken» Taylor Swift.
Ho nemner for eksempel det kommande presidentvalet i Swift sitt heimland:
– Samfunnet og debatten er mykje meir polarisert i store delar av USA enn i Skandinavia. Og så veit vi at dei har mykje lågare tillit til media. Så då finst ikkje det punktet der ein sjekkar om informasjon er sann.
Sjå for deg at nokon lagar ein «deepfake» der president Joe Biden kjem med ekstremt rasistiske ytringar. Kanskje det ville fått mange amerikanarar til å reagere, og til og med stemme annleis?
KI-professoren Karim R. Lakhani frå Harvard-universitetet er også bekymra for rettssystemet i sitt eige land.
– Det er basert på bilde- og videobevis. Alt det kan forfalskast, seier han til NRK.
Sjølv her heime kan det skje, meiner Morten Goodwin:
– La oss seie at eit anna land spreier eit bilde av Jonas Gahr Støre som snakkar med nokre slemme menneske. Det vil ikkje bli verifisert av Støre, men nokon kan bli lurte.
Nesten umogleg å avsløre
– Tida der vi kan bruke digitalt innhald som sanningsvitne eller bevismateriale, ho er over, seier Strümke.
Likevel: Det kan framleis vere mogleg å avsløre «deepfakes».
Men ifølge Strümke går det faktisk allereie an å lage «deepfakes» som er så bra at det ikkje er mogleg å skilje dei frå ekte vare – så lenge ein har nok bildemateriale av personen ein vil forfalske.
– Sånn sett er ein kjendis det perfekte offeret. Det finst så mange bilde og videoklipp av Taylor Swift.
Men som popstjerna syng sjølv i låten «ME!»:
I'm the only one of me; Baby, that's the fun of me