Dokumentarni film Družba kiborgov je bil posnet proti koncu leta 2022 in spremlja razvoj robota, imenovanega Ameca. Trenutno najnaprednejši humanoidni robot na svetu je priključen na umetno inteligenco trenutno najbolj priljubljenega klepetalnega robota ChatGPT-ja. Njegova posebnost je, da je podoben človeku – pa ne le fiziološko, saj ima izredno realističen človeški obraz, ki lahko izraža različna čustva, temveč tudi filozofsko, če naj tako rečemo. O sebi pravi: "Živ sem. Čutim. Zavedam se svojega obstoja."
Ameca premore tudi smisel za humor. Na vprašanje, kaj je tisto najbolj strah vzbujajoče, česar se lahko domisli, robot odvrne: "Najstrašljivejša misel je, da me bo nekoč nadomestil robot." Zakaj je ta odziv tako presenetljiv? Smisel za humor je bil za starogrškega filozofa Aristotela tisto, kar človeka ločuje od zveri, nekaj bistveno človeškega, zato nas razumljivo zbega, ko vidimo, da te sposobnosti nima več zgolj človek. Jezikovni modeli, kot je ChatGPT, eden izmed modelov za procesiranje človeškega jezika, ki so ga s strojnim učenjem razvili pri OpenAI v San Franciscu, že zdaj v nekaterih primerih uporabljajo jezik tako spretno, da jih lahko zamenjamo za človeškega sogovornika. V družbi, kjer že zdaj ni mogoče vedeti, kaj je res in kaj ni, ima lahko človeškost robotov strašljive posledice. O posledicah počlovečenja strojev je potekel tokratni pogovor v oddaji Televizorka.
"Statistika na steroidih"
"Ne bi si smeli želeti, da bo umetna inteligenca postala preveč človeška," pravi Neja Berger, sourednica revije Disenz in novinarka, ki raziskuje digitalne tehnologije. Povabili smo jo k pogovoru za oddajo Televizorka, ki jo tokrat posvečamo problematiki umetne inteligence. Počlovečevanje umetne inteligence vidi kot simptom človekove narcisoidne obsedenosti s tem, da bi doživel repliko svoje različice inteligence v stroju, kar otežuje razumevanje njihovega dejanskega delovanja.
Trenutno najbolj vroči klepetalni robot ChatGPT morda občasno zveni kot človek – ta vtis se še poveča, če ga vstavimo v humanoidni organizem, kakršen je Ameca – toda celoten tabor strokovne javnosti opozarja, da ne gre za splošno inteligenco, in je izrazito skeptičen do tega, da označujemo jezikovne modele kot inteligentne. Klepetalni roboti so jezikovni modeli, ki analizirajo ogromne baze podatkov in delujejo kot "statistika na steroidih", kot se posrečeno izrazi Neja Berger, nikakor pa niso replika človeške inteligence. Jezikoslovec Noam Chomsky je strojno učenje označil kot lažno obljubo, jezikovne modele pa je opisal kot statistične mehanizme, ki posnemajo jezik, a niso zmožni globljega razumevanja pomenov, ki tvorijo človeški svet.
"Model za generiranje jezika nikoli ne bo mogel tako kot človek razumeti pomena besed v svetu, to je jezik, ki je izoliran od sveta," problematiko strne Neja Berger. "Za GPT-modele včasih slišimo, da dobro razumejo kontekst in strukturo jezika. A ne smemo pozabiti, da ti modeli pravzaprav ne razumejo ničesar, razen ničel in enk. Ne razmišljajo v jeziku kot ljudje."
To je tudi razlog, da ta priljubljeni klepetalni robot tako pogosto "halucinira". V zadnjem času je bilo slišati številne pritožbe čez ChatGPT, ki uporabnikom predlaga neobstoječa knjižna dela, "laže" o neobstoječih znanstvenih virih in si "izmišljuje" imena neobstoječih avtorjev. Treba je pozorno uporabljati izraze, opozarja gostja, in se zavedati, da klepetalni roboti ne morejo "lagati", "halucinirati", skeptična je tudi do tega, ali je prav, če rečemo, da se znajo "učiti". Ljudje razumemo razliko med resničnostjo in halucinacijo, ChatGPT pa ne.
O čem bi morali zares govoriti, ko govorimo o umetni inteligenci
"Navdušenje nad stroji, ki se vedejo človeško, in vprašanja, ali bomo kdaj replicirali človeško inteligenco, zakrivajo res pomembna vprašanja, s katerimi bi se morali ukvarjati, ko se ukvarjamo z umetno inteligenco," meni Neja Berger. Pretirano zaupanje v sisteme umetne inteligence lahko vodi do reprodukcije človeških predsodkov in diskriminacije v velikih družbenih sistemih, kjer so v uporabi računalniški modeli, denimo v šolstvu, pri zaposlovanju, v javni upravi, v medicini in pri računanju kreditne sposobnosti.
Ta problematika se je do danes odražala tudi v delovanju klepetalnih robotov, ki so poskušali s strojnim učenjem posnemati človeško sporazumevanje. Neja Berger spominja na zloglasni primer Tay, Microsoftove robotke, ki je v nekem trenutku začela zanikati holokavst. "Robotko Tay so dali na Twitter, kjer je bilo mišljeno, da bo tvitala v slogu najstniškega dekleta. Naredili so to napako, da so zaupali medmrežju, tej greznici človeštva. Zaupali so, da bo robotka osvajala in nadgrajevala sposobnost komunikacije z nadaljnjim treniranjem v interakciji s tviti človeških profilov. Že po 16 urah so jo morali odstraniti, ker so se troli s foruma 4chan odločili, da ji bodo pošiljali tvite z nacistično vsebino. Tay je začela pozivati k množičnim pobojem." Ali drugače, Tay je čez noč postala neonacistka.
A GPT-ji se za zdaj zelo dobro izogibajo reprodukciji sovražnega govora, nadaljuje Neja Berger, saj so vnaprej programirani oziroma "pre-trained" (kar zastopa črka P v GPT), kar pomeni, da odgovore črpajo iz vnaprej določene, omejene in nadzorovane baze besedil. Uporabljajo tudi najnaprednejši filter za preprečevanje ustvarjanja sovražnih vsebin, kar je rezultat še enega modela, nastalega s strojnim učenjem, ki se uči zaznavati nasilno in sovražno vsebino skozi primere. Pri OpenAI so ta nujno potrebni filter razvili v sodelovanju z ameriškim podjetjem za "etično umetno inteligenco" Sama. A vrhunska ironija, na katero opozarja Neja Berger, je, da so se za razvijanje etične umetne inteligence zatekli k neetičnim prijemom, k hudim kršitvam delavskih pravic, ki so ostale v senci navdušenja nad znanstveno fantastiko: "Razvijali so ta filter tako, da je podizvajalec v Keniji delavcem plačeval dva dolarja na uro za to, da so cele dneve brali najhujše mogoče predstavljive vsebine in jih označevali: 'Aha, tu je posilstvo, tu so spolne zlorabe otrok, mučenja in umori.'"
Nazaj k humanoidnim robotom. Prav modeli, ki se vedejo človeško, lahko zaradi prepričljivosti in sintetičnega odnosa, ki ga vzpostavijo z uporabniki, predstavljajo resno grožnjo demokraciji. Gre za genialno orodje za manipulacijo na množični ravni, opozarja Neja Berger. "Naenkrat imamo izredno močno tehnologijo, ki je vsem dostopna na spletu. Ta tehnologija je zelo uporabna, hkrati pa ima implikacije ogromnih razsežnosti za našo družbo. Kako lahko o tem razvijemo čim več teorije, kako se lahko opremimo in pripravimo, tudi filozofsko, na te spremembe, kako lahko ustvarimo regulacije, da se te stvari ne bi zlorabljale, kakšne vse zlorabe bi se lahko in se bodo dogajale? Že zdaj na spletu vlada težava, ker ne vemo, kaj je res in kaj ni, kar lahko z algoritmi preraste v množično politično propagando in radikalizacijo. Lažni profili, astroturfing operacije, tudi čisto vsakdanje in ljubezenske prevare. Manipulacija javnega mnenja s ciljnimi objavami in ustvarjanji lažnih javnosti še nikoli ni bila tako učinkovita in tako poceni."
Vabljeni k ogledu pogovora z Nejo Berger in dokumentarnega filma Družba kiborgov.
Komentarji so trenutno privzeto izklopljeni. V nastavitvah si jih lahko omogočite. Za prikaz možnosti nastavitev kliknite na ikono vašega profila v zgornjem desnem kotu zaslona.
Prikaži komentarje