Foto: Pixabay
Foto: Pixabay

Najbrž ste videli na videz verodostojen posnetek predsednice države, kako vabi vlagatelje v vprašljivo finančno shemo. Po spletu je zaokrožil tudi posnetek Luke Dončića, kako razlaga, da komaj čaka, da bo skupaj z Nikolo Jokićem zaigral za Crveno zvezdo, če bo treba, tudi brezplačno. Na prvi pogled je bil posnetek videti verodostojen, še ustnice so se v videu premikale skladno z govorom. Vse to se da (po)narediti s tehnologijo globokega ponarejanja ob pomoči umetne inteligence. Ponaredijo lahko fotografije, človeški glas in celo videovsebine. Tehnologija globokega ponarejanja ni vprašljiva, ko gre za zabavne vsebine, ko pa tehnologijo zlorabijo za prevaro, gre za kaznivo dejanje.

Umetno inteligenco lahko uspešno uporablja vsakdo in to je spremenilo svet informacijske varnosti

V rokah ali pod vodstvom poklicnih hudodelcev, ki iščejo načine, kako bi s prevaro prišli do denarja ali kako drugače izkoristili ljudi, je tehnologija globokega ponarejanja zelo učinkovita in nevarna. Uporaba se ni začela šele s prihodom Chat GPT-ja, ampak že več kot desetletje prej, le da takrat še ni bila tako enostavna in je bila dostopna le redkim. Ko je prišel Chat GPT, so se pri SI-CERT-u prijeli za glavo, pravi Tadej Hren, saj so se zavedali, da bo ta tehnologija na voljo za uporabo vsakomur, to pa bo bistveno spremenilo razmere v svetu informacijske varnosti.

Chat GPT je bil prelomnica tudi v svetu informacijske varnosti

Že dolgo si lahko pri prevajanju pomagamo z umetno inteligenco, vendar so bili še pred nekaj leti ti prevodi okorni in jih je bilo treba prilagajati, da bi jih lahko uporabili. Danes so prevodi že odlični, in ko pri SI-CERT-u obravnavajo primere prevar, ugotavljajo, da so včasih še boljši, kot da bi besedilo v slovenščini napisal povprečen slovenski srednješolec. Vendar se moramo zavedati, da ta orodja ne ustvarjajo novih spletnih napadov in prevar, ki jih ne bi poznali že prej, ampak le izboljšajo že obstoječe načine prevar oziroma spletnih napadov. Take prevare tudi težje zaznamo in hudodelci se lahko bolje zaščitijo pred pregonom.

Kako si z umetno inteligenco pomagajo hudodelci

Prve primere so pri SI-CERT-u zaznali v okviru tako imenovanih direktorskih prevar že leta 2016. To je enostavna prevara, pri kateri kriminalci na spletni strani podjetja poiščejo elektronski naslov direktorja in računovodstva ter potem računovodji v direktorjevem imenu pošljejo prošnjo ali naročilo, naj nekaj denarja nakaže na določen transakcijski račun. Danes na tako pošto skoraj nihče več ne nasede, s tehnologijo globokega ponarejanja pa so direktorske prevare dobile novo dimenzijo. Februarja 2024 je neka multinacionalka v Hongkongu izgubila 25 milijonov dolarjev, ker je nekdo z globoko ponarejenim glasom direktorja poklical računovodstvo in naročil, naj ta denar nakažejo na določen račun. Kmalu zatem so zaznali take primere tudi v Sloveniji.

Prek lažnih profilov na WhatsAppu navezali stik z direktorji slovenskih podružnic podjetja v tujini

Sporočili so, da se podjetje pripravlja na nakup nekega drugega podjetja in da mora informacija ostati tajna in naj te podružnice nakažejo določeno vsoto na neki bančni račun. Tak napad vsebuje tudi element telefonskega klica, ki je slišati zelo prepričljivo. V primeru, ki so ga pred kratkim obravnavali pri SI-CERT-u, so hudodelci vzeli posnetek govora direktorja, ki je govoril na neki konferenci, in ta posnetek imeli za osnovo, na kateri so ustvarili globoko ponarejen zvočni posnetek, s katerim so izvedli spletni napad.

Videoposnetek, na katerem predsednica države vabi v finančno shemo

Posnetek je bil seveda ustvarjen z umetno inteligenco in na srečo smo lahko še razmeroma hitro prepoznali prevaro. Barva in ton glasu sta bila slišati verodostojno, govor pa je izdajal ruski oziroma vzhodnjaški naglas. Morda so bili napadalci tako površni, da so označili napačno državo, katere jezik so hoteli ponarediti. Seveda pa se ne moremo zanašati na to, da bo prepoznavanje globoko ponarejenih videovsebin vedno tako enostavno. Tudi slovenski videoposnetki se bodo zelo hitro izboljšali, angleški pa so že zdavnaj odlični.

Obstajajo tudi orodja, ki sproti pretvarjajo govor napadalca v govor neke druge osebe

Pri končnih izdelkih sta barva glasu in ton glasu, pa tudi jezik in naglas, slišati povsem verodostojno, in če gre za videovsebino, je ustrezno celo premikanje ustnic. Vse to se dogaja sproti in v realnem času. Tako telefonskih pogovorov ni treba več snemati vnaprej, ampak se hudodelec pogovarja z žrtvijo in umetna inteligenca njegov govor sproti pretvarja v govor izbrane osebe – morda direktorja, ki hoče nakazilo denarja na neki račun, ali oddaljenega ljubimca, s katerim smo si doslej lahko le dopisovali in se že zato spraševali, ali sploh obstaja v resničnem življenju. Ljubezenske prevare bodo prav gotovo nadgradili z videokomunikacijo z žrtvijo.

Globoko ponarejene prevare čedalje težje prepoznamo

Nasveti, ki so jih pri SI-CERT-u pripravili pred časom, nič več ne zaležejo, pravi Tadej Hren. Uporabniki moramo biti zelo previdni in pri SI-CERT-u svetujejo, da se tudi sami spoznamo s tovrstnimi orodji umetne inteligence, da bi videli, kako delujejo. Ko poskusimo ustvariti tak video ali fotografijo, smo pogosto presenečeni nad tem, kaj vse zmore tehnologija. Z orodji, ki jih uporabljajo kriminalci, se je dobro spoznati in se prepričati, kako učinkovita so. Tako bomo sprejeli dodatne ukrepe in bomo, ko nas bo nekdo poklical s prošnjo ali zahtevo, da nekaj naredimo, raje osebo poklicali nazaj, da se prepričamo, da je to res bila ona. To je treba storiti še zlasti takrat, ko gre za plačila ali druge pomembne odločitve.

Obstajajo pa tudi orodja za prepoznavanje globoko ponarejenih vsebin

Seveda, obstajajo orodja umetne inteligence, ki prepoznavajo z umetno inteligenco ustvarjene vsebine. Videti je, kot da se bo umetna inteligenca na koncu bojevala proti sami sebi …

Bi obvezno označevanje vsebin, ki jih je ustvarila umetna inteligenca, izboljšalo varnost?

To bi prav gotovo lahko izboljšalo varnost, ampak le, če se tega ne bi dalo izključiti. Tako blokado ima Chat GPT, ki ga ne moremo uporabiti za ustvarjanje virusa. Vsebuje namreč etično zaščito, zaradi katere z njim ne moremo ustvarjati neetičnih stvari. Obstajajo pa druga orodja, ki so na voljo na temnem spletu in delajo natanko to, saj jih ne ovirajo etične zaščite in so jih naredili prav za namen uporabe v neetične namene. Seveda ta orodja ne bodo nikoli označevala svojih izdelkov, zato se na označevanje ne moremo zanašati.

V sedmem delu ameriške franšize Hitri in drzni so že leta 2013 uporabili tehnologijo globokega ponarejanja videovsebine

Po smrti Paula Walkerja, največje zvezde te franšize, ki je med snemanjem sedmega dela umrl v nesreči z avtomobilom, so se ustvarjalci zaradi priljubljenosti igralca zatekli k tehnologiji globokega ponarejanja in ga nadomestili s telesom njegovega brata, ki je bil podobne postave, za ustvarjanje njegovega obraza, ki je obdržal vse funkcije, skupaj z govorom in mimiko, pa so uporabili tehnologijo globokega ponarejanja. Tako so lahko dokončali serijo z likom preminulega Paula Walkerja. To je dober primer, na podlagi katerega se lahko zavemo, kako učinkovita je tehnologija globokega ponarejanja v rokah strokovnjakov. S poznavanjem tega in podobnih primerov smo bolje pripravljeni na prevare, ki nas lahko doletijo v vsakdanjem življenju.

Spletne prevare: Predsednica države vabi v vprašljivo finančno shemo