S pomočjo generativne umetne inteligence in prosto dostopnih spletnih orodij lahko vsakdo v minuti ustvari podobo, ki jo želi. Tehnologija ustvarja besedila, fotografije, glasove in vedno bolj tudi videoposnetke, z njenim razmahom pa se povečujejo možnosti zlorab in širjenja dezinformacij tudi med volitvami.
Globoki ponaredki
Dobro znana je lažna podoba papeža v dragi beli puhovki, glasbenica Taylor Swift je bila zlorabljena za pornografske podobe, po spletu krožijo lažne fotografije vnovičnega kandidata za ameriškega predsednika Donalda Trumpa, glas zdajšnjega predsednika Joeja Bidna je bil zlorabljen za lažni telefonski klic med strankarskimi volitvami. To je le nekaj primerov zlorabe generativne umetne inteligence, s katero se ustvarijo tako imenovani deepfakes ali globoki ponaredki. "To so globoke nevronske mreže posebnega tipa, ki so sposobne ustvarjati fotografije, slike, ilustracije, sheme, diagrame iz nekih opisov, se pravi vhod je besedilo in izhod slika, ki si jo želimo," pojasni Žiga Emeršič z ljubljanske Fakultete za računalništvo. Napišemo torej besedilo, željo, spletni programi pa ustvarijo podobo, ki jo želimo. Načeloma je "deepfake" dobro narejena laž, razloži strokovnjak za umetno inteligenco Marko Grobelnik z Instituta Jožef Stefan. "Deepfake je to, da naredimo sliko, film, neko sporočilo, kjer skušamo največkrat na lažni, pollažni način prikazati neko situacijo. To je lahko bodisi slika, film, besedilo. Tak izdelek, če je dobro narejen, postane zelo prepričljiv in ga je zelo enostavno plasirati na socialna omrežja."
Tovrstna tehnologija se razvija že dlje časa, pravi novinar časopisa Dnevnik Aljaž Potočnik. "Kar se je zgodilo v zadnjih dveh letih, je ta eksplozija zelo enostavnih in hitro dostopnih orodij, ki jih lahko praktično vsak uporablja brezplačno." In zelo hitro se lahko naredi marsikaj – od zabavnih, bizarnih stvaritev do zlonamernih podob. "Dokler je to samo za zabavo, hec, to niti ni velik problem, ko slike začnejo škodovati, pa to postane problem," opozarja Grobelnik.
Ko iz besedila nastane videoposnetek
Ameriško tehnološko podjetje Open AI, ki je ustvarilo Chat GPT, je februarja predstavilo orodje Sora, ki sicer še ni dostopno širši javnosti in je zmožno iz besedila oblikovati minutne videoposnetke. To sicer ni prvo orodje, zmožno ustvariti posnetke, a se to področje generativne umetne inteligence, kot pove Emeršič, zaradi težavnosti zagotavljanja sosledja podob, še razvija. Umetna inteligenca ne pozna osnovnih pravil fizike – kako se predmeti med sabo povežejo, kako padejo, kje se ustavijo, kako se odbijejo, pojasni kompleksnost takšnih orodij Potočnik.
Boj proti dezinformacijam, zlorabam, manipulacijam
Letos bo po svetu štiri milijarde ljudi v različnih državah oddalo svoj glas na volitvah, zato so tudi strokovnih krogih resne skrbi, da bi lahko umetna inteligenca vplivala na izide in potek volitev. Kot pravi Grobelnik, so volitve "zelo napeta tekma. Vsaka motnja že lahko prevesi v eno ali drugo smer, lažni film, lažna slika, lahko naredi v trenutku zelo veliko škode, če je na prav način lansirana." Da lahko umetna inteligenca s slikami in videoposnetki ogrozi integriteto evropskih volitev, je že opozorila Agencija Evropske unije za kibernetsko varnost.
Komunikator znanosti in urednik Kvarkadabre Sašo Dolenc glede zlorab meni, da je bolj kot tehnologija problematičen obstoj javnosti, ki lahko tehnologiji 'nasede'. "Pomembno se mi zdi to, da se zavedamo, da to obstaja. Mogoče še bolj kot vizualne tehnologije so trenutno pomembne jezikovne tehnologije, kjer se da klonirati govor nekoga." To se je zgodilo lani oktobra pred slovaškimi parlamentarnimi volitvami, ko je bil na enem od spletnih omrežij objavljen ponarejen telefonski klic vodje slovaške progresivne stranke. In takšnih primerov je več, kot pravi Nataša Briški z Metine liste. "V Sloveniji smo imeli primer slovenske predsednice, ki naj bi vabila v neke naložbe in hitre zaslužke. Tudi v Ameriki na strankarskih volitvah v New Hampshiru, recimo, so potvorili glas Joeja Bidna, se pravi predsednika, ki naj bi pred volitvami ljudi pozival, naj ne hodijo volit. Republikanska stranka je s pomočjo umetnega generiranja podob že ustvarila oglas, v katerem so strašili ljudi pred tem, kaj se bo zgodilo, če bi predsednik Biden zmagal."
Poskusi regulacije
Orodja, ki omogočajo ustvarjanje podob, imajo različne omejitve. Želja je, da bi imele z umetno inteligenco ustvarjene vsebine vodni žig oziroma skrito kodo, ki jo zazna računalnik. Pri podjetju Meta načrtujejo označevanje podob, ustvarjenih z umetno inteligenco, velika tehnološka podjetja pa so se na Münchenski varnostni konferenci zavezala, da bodo prepoznavala in označevala manipulativne vsebine. Medtem je Evropski parlament sprejel akt, ki ureja področje uporabe umetne inteligence. Nova pravila tako prepovedujejo aplikacije, ki predstavljajo očitno tveganje za temeljne pravice ter uvajajo stroge zahteve za nekatere sisteme umetne inteligence. Z umetno inteligenco ustvarjene ali manipulirane vsebine (deepfakes) pa bo treba v prihodnje na spletu jasno označiti.
Kaj je res in kaj je laž?
Kako bomo v prihodnje ločevali lažne podobe od realnih? "Težko," pravi Grobelnik, saj se tehnologija izredno hitro razvija, "če bo šlo tako hitro naprej, bo vsak od nas lahko čez kakšno leto, dve, tri, delal svoje filme, ki bodo videti, kot da so posneti v naravi ali pa v nekem naravnem okolju." To pomeni, da bo naraščal pomen verodostojnih virov informacij. V svetu lažnih podob in glasov bo tako še pomembnejša vloga odgovornih in kredibilnih medijev, meni Ilija Tomanić Trivundža s Katedre za medijske in komunikacijske študije (FDV). "Sama tehnologija ne more jamčiti za gotovost ničesar. Že zdaj se zanašamo na posrednike, in mediji so pomembni posredniki, ki potrjujejo resničnost besednih in slikovnih trditev."
Komentarji so trenutno privzeto izklopljeni. V nastavitvah si jih lahko omogočite. Za prikaz možnosti nastavitev kliknite na ikono vašega profila v zgornjem desnem kotu zaslona.
Prikaži komentarje