Nakon što je Eš poginuo u saobraćajnoj nezgodi, njegova supruga Marta pokušava da sastavi svoj život, rasut u deliće. Uskoro od prijateljice dobija neverovatan predlog: da upravo od takvih delića sastavi Eša, ispočetka. Marta počinje da koristi softver koji je na osnovu dostupne baze četova prepoznao stil pisanja pokojnika, pa je bio u stanju da stvara nove sadržaje u sličnom maniru. Nije se zadržao samo na tekstu: progutao je i gomilu zvučnih zapisa, što je Marti omogućilo da sa „Ešom“ komunicira putem telefona. Onda su usledile slike i video zapisi, a na kraju i mogućnost kupovine robota koji je bio savršeno nalik Ešu.
Tako je, ukratko, izgledala epizoda „Be right back“ iz popularnog serijala „Crno ogledalo“, koji se u više navrata ispostavio kao vizionarski. Priča o Ešu, „Ešu“ i Marti emitovana je 2013. godine i veoma je precizno naslutila razvoj veštačke inteligencije. Savladali smo tekst, audio i video, pa smo trenutno – u realnosti – stigli do onog dela epizode gde Marta putem video-poziva razgovara s preminulim mužem, i čekamo da se pojave prvi uverljivi androidi koji će inkorporirati sve prethodne elemente.
Dok nam kutije s DIY pokojnicima ne pristignu brzom poštom, možda bi trebalo da zastanemo i razmotrimo da li su takve i slične kutije potencijalno Pandorine.
Više ne morate biti zvezda da bi došlo vaših pet minuta
Kada govorimo da su se stvari otele kontroli, najpre nam na um padaju slučajevi poznatih osoba: od dipfejk Tejlor Svift koja podržava Donalda Trampa do dipfejk Dragana Đilasa na programu TV Pink. I zaista: uverljivu podvalu lakše je napraviti kada imate pregršt raspoloživog materijala. U tom smislu, lakše ćete napraviti dipfejk Breda Pita koji izjavljuje da je zaljubljen u vašu komšinicu nego dipfejk komšinice koja izjavljuje da obožava Breda Pita. Međutim, kako vreme prolazi, menjaju se i pravila i očekivanja. Sada je neuporedivo lakše kreirati veštački video na osnovu malog korpusa. Primera radi, različite kompanije koje se bave kloniranjem glasa AI tehnologijom utrkuju se koja će na osnovu skromnijeg inputa ostvariti impresivniji rezultat. Bližimo se tački gde će biti moguće da softveru damo jednu glasovnu poruku („Mrtav sam umoran, stižem sad u stan. Je l’ ostalo možda… je l’ ostalo onog pasulja od juče?“), a da nam on glasom te iste osobe pročita celu Anu Karenjinu i spakuje snimak u formu audio-knjige.
Svaki put kada je na pomolu neka višedimenzionalna AI novotarija, po pravilu se javnosti predstavlja njena zabavna ili korisna dimenzija. Baš kao što je to učinjeno i u prethodnom pasusu: od podgrejanog pasulja do Ane Karenjine. Na isti način govorimo i o AI koja piše dosadne mejlove umesto nas, o AI koja besprekorno sinhronizuje holivudske filmove i omogućava Anđelini Džoli da progovori na tečnom srpskom, o AI koja omogućava da svako od nas postane vrstan plesač – čak i ako ima dve leve noge… Ali, ako AI ume da oponaša naš stil pisanja, ako ume da oponaša naš glas ili da virtuelno pokreće naše telo, koliko ćemo se dugo pretvarati da su ti trikovi tek sredstvo za zabavu?
Isti softver koji pomaže Anđelini Džoli da savlada šumadijsko-vojvođanski dijalekat može – u naše ime i našim glasom – da sastavlja preteće ili uvredljive poruke. Isti softver koji nam pomaže da izvedemo komplikovanu Tiktok koreografiju može da pomera naše telo i u video-simulaciji seksa. Mogućnosti su, zapravo, beskrajne. Zamislite da vam pozvoni telefon, a onda čujete glas bliske osobe koji vas doziva upomoć, a vi ne znate da li je poziv autentičan. Zamislite da se pojavi dipfejk snimak u kom podržavate političku opciju za koju nikada ne biste glasali. Zamislite da se pojavi vaš dipfejk pornografski snimak. Neki ljudi ne moraju ništa da zamišljaju, jer su im se ti užasi već desili.
Modeli zloupotrebe
Dipfejk prevaranti postigli su zapanjujuće uspehe i pre nego što je AI postala ovako pristupačna, o čemu svedoči i rad naučnika sa Univerziteta Merimaunt u Virdžiniji. Jedan od najistaknutijih slučajeva vezuje se za Ujedinjene Arapske Emirate, gde su 2020. godine sajber kriminalci koristeći AI kloniranje glasa ukrali 35 miliona dolara. Prevaranti su iskoristili dipfejk glas direktora kompanije kako bi naveli bankarskog menadžera da izvrši transfer novca. Rad takođe navodi političke primere, poput lažnog videa ukrajinskog predsednika Zelenskog koji navodno poziva na predaju, ili dipfejk snimka Vladimira Putina koji objavljuje mir.
U oktobru 2023. doktorka sa višegodišnjim iskustvom u oblasti mentalnog zdravlja svedočila je pred odborom za uslovni otpust u Luizijani povodom potencijalnog oslobađanja osuđenog ubice. Grupa internet trolova iskoristila je snimak njenog svedočenja da bi pomoću AI alata manipulisala fotografijama tako da izgleda kao da je naga, a zatim ih delila na anonimnoj platformi 4chan. Daniel Sigel sa Univerziteta Kolumbija istraživao je zloupotrebu veštačke inteligencije, pratio je aktivnosti na 4chan-u nekoliko meseci. Primetio je da su korisnici te platforme više puta koristili nove AI alate za obradu zvuka i generisanje slika kako bi širili rasistički i uvredljiv sadržaj o ljudima koji su se pojavljivali pred odborom za uslovni otpust.
Na istoj platformi – 4chan, koja je bila žarište Qanon dezinformacija – postoje i brojni nalozi specijalizovani za izradu „custom deepfake“ pornografije. Ona podrazumeva prilagođavanje eksplicitnih sadržaja ubacivanjem glava poznatih ličnosti. Kažemo „ličnosti“, ali pre svega mislimo na žene. Emili Čapmen istraživala je ovaj fenomen i došla do nekoliko zabrinjavajućih zaključaka. Dipfejk tehnologija nesumnjivo pojačava rodne nejednakosti i objektifikaciju žena. Budući da su softveri trenirani na dostupnim pornografskim materijalima, u kojima su žene daleko zastupljenije od muškaraca, jednom kreirani disbalans se dalje perpetuira i produbljuje. Među najčešćim oblicima zloupotrebe su sajber zlostavljanje i uznemiravanje, seksualno zlostavljanje zasnovano na slikama i video zapisima, stres i narušavanje ugleda.
Istraživanje Emili Čapmen pokazuje da žene doživljavaju nesrazmerno veću štetu od ove tehnologije u odnosu na muškarce, uključujući pretnje, ucene, uznemiravanje i gubitak profesionalnih prilika. Čak i kada se dokaže da je sadržaj lažan, žrtve i dalje trpe ozbiljne psihološke i društvene posledice. Primer indijske novinarke Rane Ajub pokazuje različite dimenzije ovog problema. Nakon što je njeno lice „ubačeno“ u pornografski video, primila je gomilu nasilnih poruka, pretnje da će je „izbaciti iz zemlje“, kao i pozive na grupno silovanje. Uznemiravanje je bilo toliko intenzivno da je naposletku hospitalizovana.
U Beogradu je, krajem prošle godine, grupa dečaka napravila pornografske foto-montaže s licima svojih drugarica i jedne nastavnice. Te devojčice su se našle u užasnom položaju, jer ne samo da su bile izložene nasilju, već su ujedno dovedene u poziciju u kojoj o tom nasilju teško mogu da progovore. Ako su okolnosti takve da je katkad teško prijaviti i šamar ili krađu koja se desila u školi, kako je tek nositi se s teretom dipfejk pornografije? Prvo, sam čin pokazivanja dokaza nasilja roditeljima ili nastavnicima izaziva duboku nelagodu i toliko je neprijatan da će mnoge žrtve unapred obeshrabriti da o problemu progovore. Drugo, žrtve često osećaju stid iako ništa nisu skrivile, a uz to strahuju i da će prijavljivanje sadržaja samo povećati njegovu vidljivost i dovesti do daljeg širenja. Treće, mnoge maloletne žrtve će se plašiti da im odrasli neće verovati, pogotovo ako nisu dovoljno digitalno pismeni, tj. ako nisu upoznati s dometima ovakvih manipulacija.
Istraživanje Emili Čapmen pokazuje da preko 50% žrtava dipfejk zlostavljanja ne zna ko je kreator lažnog sadržaja, što stvara osećaj bespomoćnosti i konstantnog straha, jer ne znaju od koga dolazi pretnja niti kako da je zaustave.
Dipfejk ekstremizam
Svi navedeni problemi doveli su nas do pojave koju Stefani Baele i Levis Brejs nazivaju „AI ekstremizmom“. On podrazumeva korišćenje lažnih video i audio snimaka kao sredstva za iznuđivanje novca, informacija ili postupaka, sistematske kampanje protiv određenih grupa (npr. političarki, verskih lidera i LGBT+ aktivista), kao i krađu identiteta i neovlašćeni pristup zaštićenim sistemima.
Evidentno je da nam je neophodna što brža i bolja regulacija ovakvih sadržaja, kao i sankcionisanje AI ekstremista. Problem je, međutim, u tome što tehnike manipulacije napreduju toliko brzo da ih je teško ispratiti i na nivou vesti, a kamoli razmotriti ih u okviru zakona i regulativa. Ukoliko se traže brza rešenja, rizikuje se prekomerno ograničavanje AI tehnologija, o čemu se u Australiji već vode oštre debate. Ana Brojnovski i Fiona Martin sa Univerziteta u Sidneju smatraju da trenutni australijski regulatorni pristup, koji je prvenstveno fokusiran na rizike i štete od dipfejk sadržaja, ne uzima dovoljno u obzir pozitivne primene ove tehnologije u kreativnim industrijama. Autorke posebno ističu kontrast između australijskog pristupa i regulatornih okvira u EU i SAD, koji eksplicitno štite kreativnu upotrebu dipfejk tehnologije kroz izuzetke za umetnički, satirični i obrazovni sadržaj.
Nigde, zapravo, nema dovoljno dobrog zakonskog rešenja, koje bi bilo dovoljno vizionarsko (da ne mora da se apdejtuje na svakih šest meseci), dovoljno zaštitnički postavljeno, ali ne i bespotrebno restriktivno. U nekim zemljama deljenje dipfejk pornografskog sadržaja smatra se prekršajem samo ako se dokaže da je namera bila da se izazove uznemirenost žrtve. Ako je sadržaj deljen „iz zabave“, to se ne smatra prestupom. Dodatne dileme odnose se na kvalitet i kontekst snimka: ako je sadržaj vidljivo lažan (loše montiran), da li je slučaj utuživ? Ako neko napravi dipfejk pornografski snimak koji vas prikazuje u svemiru, ima li autor pravo da vam kaže da se dovoljno ogradio izborom nemogućeg mesta? Naposletku, ako dipfejk sadržaj nije vidljivo kreiran na osnovu jedne vaše (konkretne) slike i snimka, već deluje da je nastao „ni iz čega“, sistemom „od svega pomalo“, da li potpada pod definiciju „izmenjenih privatnih snimaka“?
Trenutak kada će neko uspeti da zakonski definiše sve ove granice još je daleko. A dotle, paradoksalno, tehnologija koja je najavljena kao korisna i zabavna zahteva od nas da budemo oprezniji nego ikad. To je razumela i Marta s početka ovog teksta, čiji je „Eš“ – na kraju epizode – završio zaključan na tavanu.
Stefan Janjić
