Strojno učenje, nevronske mreže, analiza velepodatkov – to so najnovejši pospeški razvoja umetne inteligence, ki se je začel konec petdesetih let 20. stoletja. V tem obdobju je umetna inteligenca v valovih doživljala razvojne vzpone in padce, z njimi pa tudi večje oziroma manjše prilive finančnih sredstev za nadaljnji razvoj. Trenutno je umetna inteligenca v vzponu, razvoj poteka pospešeno, vlaganj je veliko, o njej se veliko govori.
O njej je govorila tudi profesorica doktorica Kim Binsted, vodilna raziskovalka na programu HI-SEAS, ki ga financira Nasa. Trenutno je zaposlena tudi kot znanstvena sodelavka AAAS-ja za znanstveno in tehnološko politiko v pisarni senatorja v Beli hiši v Washingtonu. Na Fakulteti za matematiko in fiziko Univerze v Ljubljani je predavala o razvoju umetne inteligence, po predavanju smo se z njo pogovarjali o izzivih razvoja te tehnologije.
Profesorica doktorica Kim Binsted je doktorirala na področju govornih tehnologij – ustvarila je umetno inteligenco, ki se zna šaliti. Zato nas je najprej zanimalo, zakaj po njenem mnenju še nimamo umetne inteligence, ki bi nas razumela in bi se z nami lahko pogovarjala.
Do nedavnega je bila največja ovira obdelava velike količine podatkov. Delali smo lahko na majhnih zbirkah, zdaj pa imamo gromozansko velike. Zato se je zelo spremenila kakovost strojnega prevajanja in drugih sistemov naravnega jezika. Kljub temu pa še vedno potrebujemo veliko znanja o svetu – razumevanja o tem, kako svet deluje, tako fizično kot družbeno in tako naprej, da bi lahko razumeli, kaj ljudje govorijo.
Umetna inteligenca je trenutno zelo priljubljena, za razvoj se namenja veliko denarja. Poleg velikih obljub o boljšem svetu, ki naj bi ga umetna inteligenca pomagala ustvariti, slišimo tudi svarila o novih težavah, ki utegnejo nastati zaradi nje. Po mnenju doktorice Binsted najbolj vzbujajo skrb morebitne spremembe na trgu dela.
Veliko izzivov je. Po mojem mnenju največ na področjih, kjer že imamo težave, umetna inteligenca pa jih utegne še povečati. En tak primer je seveda delo. Avtomatizacija je v preteklosti že skrčila ali izbrisala panoge oziroma industrije. Na primer konji so vlekli kočije, s pojavom avtomobila je ta industrija propadla. Ampak v preteklosti so torej nove industrije prevzele mesto starih, ki so propadle. Človekovo delo ni šlo popolnoma iz mode. Ko umetna inteligenca postaja vse bolj inteligentna in vse bolj sodobna, nas po mojem mnenju lahko upravičeno skrbi, da bo povzročila presežke delovne sile, ne le fizične, temveč tudi intelektualne. Če se to zgodi, če bomo imeli velikansko, neomejeno zalogo delovne sile, bodo ljudje vse težje menjali svoje fizično ali intelektualno delo za prihodek. Na tem pa trenutno temelji naš celotni sistem. Ne gre torej toliko za tehnološki kot političnogospodarski problem. Ta presežek delovne sile bi lahko bil čudovit, lahko bi pomenil, da nam nikoli več ne bo treba delati. Vendar če ne spremenimo našega ekonomskega sistema, lahko pomeni, da veliko ljudi ne bo moglo zaslužiti sredstev za življenje.
Oktober je evropski mesec kibernetske varnosti. V tem času slišimo veliko opozoril o tem, kako se zaščititi pred kibernetskim kriminalom. Pa tudi da v kibernetskem prostoru poteka nova hladna vojna med državami. Kakšna je na tem področju vloga umetne inteligence, katero je tisto področje, ki najbolj skrbi dr. Binsted?
Umetna inteligenca odpira kar nekaj varnostnih vprašanj. Kot ste rekli, je neke vrste orožje, ki ga uporabljajo beli in črni klobuki oziroma etični in škodljivi hekerji za zaščito in napade na naše sisteme. Področje, na katerem vloga umetne inteligence najbolj vzbuja skrb, so po mojem mnenju tako imenovane tehnologije deepfake. Video, ki je videti resničen, v resnici pa se besede v usta govorca polagajo z umetno inteligenco. Tako dobite video, ko nekdo reče nekaj, česar v resnici nikoli ni izrekel. Take ponarejene videe je skoraj nemogoče zaznati, za to je potrebna zahtevna globinska obdelava. To je zelo resen izziv načinu, kako danes razumemo svet okrog sebe.
Ker profesorica doktorica Kim Binsted prihaja iz Združenih držav Amerike, kjer bodo prihodnje leto predsedniške volitve, se vprašanju o vplivu deepfejkov v politični kampanji nismo mogli izogniti.
Deepfake že uporabljajo in imeli bodo pomemben vpliv na volitve po svetu. Pa ne le na volitve, temveč tudi – še enkrat – na naše razumevanje sveta. Trenutno ga pomembno filtrirajo mediji. Človeški mediji, čeprav imajo svoje napake, so zgodovinsko gledano dali vse od sebe, da bi primerno opravili to nalogo. Tehnologije deepfake to spodkopavajo.
Če pa jih združimo z družbenimi mediji in njihovimi učinki na družbo, je slika še slabša.
Družbeni mediji so zelo močno orodje za povezovanje ljudi in deljenje informacij. Hkrati je to tudi zelo nov način stikov med ljudmi. Zato še nimamo norm ali zaščite pred zlorabami, kot jih poznamo pri tradicionalnejših oblikah komunikacije. Zato ja, nevarnosti je veliko. Obstaja nevarnost, da verjamemo v stvari, ki niso resnične. Da so zgodbe videti resnične, potrjujejo naša prepričanja, zato jih delimo z drugimi, tako pa še povečujemo problem. Tu so tudi odmevne komore, ko delimo ali dobimo informacije samo iz kroga enako mislečih ljudi, zato se naša prepričanja le še utrjujejo, morali pa bi jih soočiti z drugačnimi mnenji ali informacijami iz drugih virov. Veliko različnih tveganj obstaja na družbenih medijih. Če sem iskrena, večina je družbenih in epistemoloških tveganj, ne gre jih pripisati umetni inteligenci ali družbenim medijem. To je le posledica nove komunikacije med ljudmi.
Izziv je torej ustvariti tako umetno inteligenco, ki jo bo težko ali nemogoče zlorabiti. Pa to lahko dosežemo? Je rešitev regulacija tehnološkega razvoja?
Regulacija je zelo zanimiva. Imamo zakone, ki regulirajo ljudi, kadar enako stvar naredi umetna inteligenca, pa ni zavezana k spoštovanju enakih pravil. To je izziv. Na primer v ZDA in številnih drugih delih sveta je nezakonito, če rasa ali spol vplivata na to, ali nekdo dobi službo, stanovanje in tako dalje. Drži? Če se torej človek, zaposlovalec na primer odloči, da nekoga ne bo zaposlil zaradi njegove barve kože ali spola, ga lahko preganjamo pred sodiščem ali vržemo v ječo. Potem pa ta isti zaposlovalec najame podjetje, ki mu priskrbi umetno inteligenco, ki pregleda vse prijave in predlaga najboljše kandidate. Čeprav gre lahko za pristranski izbor, ne moremo na nikogar pokazati s prstom in ga okriviti za nastalo situacijo. Nikogar ne moremo pozvati pred sodišče ali vreči v ječo. Zato moramo najti načine, da bi načela, o katerih se že strinjamo, spoštovala tudi umetna inteligenca in seveda ljudje, ki jo uporabljajo.
Različnost je pri umetni inteligenci izjemno pomembna. Ko ustvarjamo nekaj novega, je dobro, če za tem stoji množica različnih izkušenj in pogledov na svet. Profesorico smo zato vprašali, ali je po njenem mnenju na področju umetne inteligence dovolj velika različnost.
Kadar koli enolična skupina ljudi nekaj počne, lahko kljub najboljšim namenom naredi grozljive napake. Biometrični sistemi prepoznavanja obrazov na primer delajo velike napake, saj ne delujejo na obrazih s temno barvo polti. Sistemi, ki naj bi prepoznavali sumljivo vedenje, se obnašajo drugače, kadar zaznajo ljudi različnih rasnih skupin. V bistvu gre za to. Kadar koli ustvarimo sistem, ki kopira človeško vedenje, bo tak sistem podedoval pristranskost ljudi, ki so ga ustvarili. Zato je nujna zelo previdna uporaba in razvoj teh sistemov, da bi se izognili tem težavam in vpisovanju teh problemov v prihodnje tehnologije.
Ob začetku pogovora o prihodnosti umetne inteligence je profesorica doktorica Kim Binsted omenila, da bi bilo treba za implementacijo umetne inteligence v družbo spremeniti naš ekonomski sistem. Pa vidi zametke razprav o spremembi neokapitalizma?
Imamo veliko alternativ za sistem preproste menjave dela za vire. Trik je, kako izpeljati tranzicijo. Da je ta izziv še težji, je za ljudi, ki so danes zelo uspešni, v trenutnem sistemu veliko na kocki. Zato bo potrebna zelo resna introspekcija teh ljudi, pa tudi nas drugih, odločiti se bomo morali, ali je pomembno, da se ta tranzicija zgodi. Nisem prva, ki bi predlagala, da je. Sama se tudi prištevam med tiste, ki nam je v tem sistemu še kar udobno, zato če se zavedaš te potencialne krize, te ljudski upor ne bi smel presenetiti. Vendar bi imeli od gladkega prehoda v drugačen sistem vsi korist.
Komentarji so trenutno privzeto izklopljeni. V nastavitvah si jih lahko omogočite. Za prikaz možnosti nastavitev kliknite na ikono vašega profila v zgornjem desnem kotu zaslona.
Prikaži komentarje