Ekspertar trur 2024 blir året for «deepfakes»

3 months ago 69


Då falske nakenbilde av Taylor Swift blei posta på X, skapte det raskt oppstyr.

«Forferdeleg», sa Microsoft. «Urovekkande», sa Det kvite hus. Etter at bilda fekk fleire titals millionar visningar, såg X seg nøydde til å blokkere alle søk på Taylor Swift.

– Eg trur Taylor Swift-eksempelet berre er starten på noko mykje større.

Det seier Morten Goodwin, professor i kunstig intelligens ved Universitetet i Agder.

– Diverre kan 2024 bli «deepfake»-året, meiner han.

edVo5OhSFUI

Det lèt til at popstjerna har greidd å «shake it off», med hjelp frå X og fansen.

Foto: AP

Bør vi vere bekymra?

– Nesten kvar månad kjem det ein ny algoritme som er enda litt betre enn den førre til å spreie falsk informasjon, seier Goodwin.

– Bør vi vere bekymra for dette?

– Openbert. Nå er denne teknologien så god og tilgjengeleg for alle.

Morten Goodwin

KI-professor Morten Goodwin trur Taylor Swift-saka berre er eit startskot.

Foto: Pål Tegnander

Førsteamanuensis innan KI ved NTNU, Inga Strümke, trur superstjerner som Taylor Swift vil klare seg fint. Vanlege folk har derimot ikkje det same støtteapparatet.

– Dette har allereie skjedd med mange kvinner der ute, og også barn. Det er hysterisk utbreidd, seier ho.

Inga Strümke

Inga Strümke ser allereie mykje av «deepfakes».

Foto: NTB

Trur «deepfakes» kan påverke valet i USA

Strümke meiner at valpåverknad er eit større demokratisk problem enn ein «naken» Taylor Swift.

Ho nemner for eksempel det kommande presidentvalet i Swift sitt heimland:

– Samfunnet og debatten er mykje meir polarisert i store delar av USA enn i Skandinavia. Og så veit vi at dei har mykje lågare tillit til media. Så då finst ikkje det punktet der ein sjekkar om informasjon er sann.

Deepfake av Barack Obama

Allereie då Obama var president, blei «deepfake»-teknologien teke i bruk. I dag er «deepfakes» meir realistiske.

Foto: AP

Sjå for deg at nokon lagar ein «deepfake» der president Joe Biden kjem med ekstremt rasistiske ytringar. Kanskje det ville fått mange amerikanarar til å reagere, og til og med stemme annleis?

KI-professoren Karim R. Lakhani frå Harvard-universitetet er også bekymra for rettssystemet i sitt eige land.

– Det er basert på bilde- og videobevis. Alt det kan forfalskast, seier han til NRK.

Karim R. Lakhani

Harvard-professoren Karim L. Lakhani er også bekymra for bruken av «deepfakes» i USA.

Foto: Privat

Sjølv her heime kan det skje, meiner Morten Goodwin:

– La oss seie at eit anna land spreier eit bilde av Jonas Gahr Støre som snakkar med nokre slemme menneske. Det vil ikkje bli verifisert av Støre, men nokon kan bli lurte.

Nesten umogleg å avsløre

– Tida der vi kan bruke digitalt innhald som sanningsvitne eller bevismateriale, ho er over, seier Strümke.

Likevel: Det kan framleis vere mogleg å avsløre «deepfakes».

Men ifølge Strümke går det faktisk allereie an å lage «deepfakes» som er så bra at det ikkje er mogleg å skilje dei frå ekte vare – så lenge ein har nok bildemateriale av personen ein vil forfalske.

– Sånn sett er ein kjendis det perfekte offeret. Det finst mange bilde og videoklipp av Taylor Swift.

Men som popstjerna syng sjølv i låten «ME!»:

I'm the only one of me; Baby, that's the fun of me

Film Review Taylor Swift Eras Tour

Det finst berre éin Taylor Swift.

Foto: AP
Read Entire Article