»Potrebnih bo samo nekaj velikih prevar, ki bodo resnično prepričale javnost, da nič ni resnično« (Aviv Ovadya).

Tehnološki napredek povzroča velike premike v družbi, ki se jih (pre)pogosto niti ne zavedamo. Ne odzivamo se preventivno, temveč reakcijsko, kar potrjuje tudi primer t.i. lažnih novic (ang. fake news) in nedaven pojav tehnologije »deepfake«, za katero smiselnega slovenskega prevoda še ni. Verjetno bo slovenski prevod šel v smeri npr. »globôki ponaredki«, »globôke (lažne) novice« ali kaj podobnega, glede na to, da temelji »deepfake tehnologija« na globôkem učenju, ki ga Islovar[1] (2016) opredeli kot pristop k strojnemu učenju z modeliranjem hierarhične strukture podatkov, ki navadno sloni na uporabi večslojnih nevronskih mrež. Gre torej za tehnologijo oz. kar medij, ki omogoča audio-vizualno manipulacijo obstoječih videov (tudi v realnem času), kakor je npr. znameniti video, v katerem Bill Hader impresionira Toma Cruisa, pri čemer se Billov obraz postopoma spremeni v Tomovega. Primerov zlorabe oz. uporabe te tehnologije je do danes že kar nekaj – med »žrtvami« pa so tudi aktualni predsednik ZDA, Donald Trump, za katerega ni potrebno posebej poudarjati, da ima že kar nekaj t.i. »deepfake videov«, ustvarjenih na lasten račun in na račun političnih nasprotnikov, kakor je predsednica predstavniškega doma kongresa Nancy Pelosi. »Deepfake« videom se ni izognil tudi nekdanji predsednik ZDA, Barrack Obama ali pa tehnološki milijarder Mark Zuckerberg, ki je še posebej ironičen primer, glede na to, da je ravno vzpon spletnih socialnih medijev prispeval levji delež v procesu nastanka tovrstne tehnologije in načina njenega prodora v širšo družbo. Zaskrbljujoče je tudi, da se spletni socialni mediji niti ne zavedajo, kaj s tovrstno tehnologijo manipulacije prihaja.

Hitrost razvoja je prehitela hitrost učenja in razumevanja

Vse skupaj se je začelo z objavo članka[2] na spletnem mediju Vice, ki razkriva uporabo algoritma, s katerim je Reddit uporabnik z imenom deepfakes zamenjal obraz pornoigralke z obrazom Gal Gadot, zvezdnice filma Wonder Woman. Da, začelo se je s pornografijo in spolnostjo, kar nas niti ne sme presenetiti, saj bomo verjetno precejšen del tehnološkega napredka na področjih kot so robotika, umetna inteligenca, ipd. dosegli ravno zaradi čedalje intenzivnejših seksualnih oz. spolnih potreb družbe, kar lahko pripišemo razmahu pornografije v zadnjih 50 letih, predvsem na račun razvoja IKT tehnologije. Prav tako ni skrivnost, da gre napredek v smeri večje podobnosti s človekom, tako fizične, kot umske. Ravno v tem strmenju za resničnostjo tehnologije se skriva še en izziv, saj bo prepoznava »deepfake« ponaredkov čedalje bolj otežena, medtem, ko bodo možnosti za uspešno manipulacijo percepcije čedalje višje. V januarju 2018 je Vice objavil nov članek na to temo, Reddit uporabnik deepfakes pa je medtem nabral več kot 15.000 naročnikov, beseda »deepfake« pa je postajala čedalje bolj trendovska. Neki drug Reddit uporabnik je v tem času razvil aplikacijo, s katero so lahko uporabniki na spletu brez računalniškega znanja ustvarjali »deepfake« vsebine. Sledile so bolj napredne aplikacije, temelječe na uporabniški izkušnji (ang. customer experience ali CX), s čimer je bil, če smo iskreni, izpolnjen najbolj pomemben pogoj za katerikoli digitalni pripomoček – to je uporabniška izkušnja, ki, morda tudi zaradi pomanjkanja računalniške pismenosti pri uporabnikih, zavzema višje mesto kot pa varnost. Orodja za masovno manipulacijo in generiranje ponarejenih video vsebin so bila torej nared za povprečne uporabnike interneta pred manj kot dvema letoma. Razvoj tehnologije »deepfake« se je torej začel v internetnih skupnostih, kot  je Reddit. A hkrati je razvoj te tehnologije potekal tudi v akademskih institucijah, konkretno na področju računalniškega vida (ang. computer vision), ki je podpodročje računalniške znanosti (ang. computer science)[3]. Leta 1997 je bil ustvarjen program Video Rewrite[4], ki je omogočal spremembo glasu osebe v videu z glasom osebe z drugega zvočnega posnetka. Takšne primere smo pogosto lahko gledali v različnih akcijskih filmih iz Hollywooda. Danes pa v filmih najdemo ravno primere uporabe tehnologije »deepfake«, s katero akterji spreminjajo percepcijo ciljnega občinstva. Zanimivo, kako tovrstna tehnologija audiovizualne manipulacije ves čas pronica skozi medijsko industrijo, a več o tem v nadaljevanju. Akademska skupnost je ves čas fokus usmerjala v projekte, ki so omogočali ustvarjanje čedalje bolj realističnih videov ter seveda samo izboljšavo tehnologije[5]. Kakor z vso preostalo (digitalno) tehnologijo, je bilo tudi v tem primeru samo vprašanje časa, kdaj bo tehnologijo pričela uporabljati poleg filmske/produkcijske še preostala industrija. Številna (digitalna) podjetja za uporabo aplikacij, ki omogočajo ustvarjanje »deepfakov«, ne zaračunavajo ničesar, torej ne ustvarjajo direktnega finančnega prihodka, temveč ga neizbežno ustvarjajo z zbiranjem uporabnikovih osebnih podatkov, na čemer vsaj za zdaj temelji velik del digitalne ekonomije. Tovrstne aplikacije, ki so (bile) dostopne brezplačno v spletnih trgovinah kakor sta App store in Google Play so postale viralne in povzročile takojšen odziv v kontekstu zaščite zasebnosti, v katero uporaba tovrstne tehnologije na nepremišljen ali zlonameren način tako grobo posega. Takšne primere lahko najdemo po vsem svetu – v ZDA, v Evropi, tudi na Kitajskem in v Rusiji.

Hudič je v podrobnostih

Vzpon »deepfake« tehnologije lahko označimo za globalni problem, kakor klimatske spremembe, ki pa jih za spremembo dejansko lahko merimo in do neke mere predvidimo, saj so dolgotrajen pojav, o katerem imamo že kar precej informacij. Tehnologija »deepfake« pa je tako nova, da preprosto ni mogoče oceniti, kako prevladujoča je in kako hitro se razvija ter kakšne vplive na družbo s seboj prinaša. A zakaj dejansko je problem? Marsikdo bi namreč lahko rekel, da je tehnologija samo še eden izmed načinov profitiranja v medijski industriji oz. kar bolje, digitalni ekonomiji. A problem je (lahko) precej resnejši. Tehnologija je v obdobju manj kot dveh let napredovala od algoritma, ki omogoča preprosto, a vizualno prepričljivo zamenjavo obraza in/ali zvoka, do tega, da lahko v točno določenih okoliščinah in stanju ciljne publike že povzroči masovno manipulacijo in to v realnem času. Zamislimo si scenarij v letu 2020, ko interesna skupina ali celo že posameznik ustvari »deepfake« video z izredno vznemirljivo vsebino in ga zahvaljujoč čedalje bolj dostopnejši podatkovni analitiki (ki po Cambridge Analytici postaja prava industrija) v dovolj dobrih pogojih objavi po točno določenih kanalih digitalne komunikacije. V zelo kratkem času bi takšen video postal viralen in bi lahko, odvisno od vsebine, povzročil precejšnjo materialno in gospodarsko škodo, v najslabših primerih tudi človeške žrtve. Članek v branju se prične z izjavo Aviva Ovadye, ki nosi precejšnjo težo, saj izpostavlja nevarnost »deepfake« videov zaradi senzacionalizma in čedalje boljše prepričljivosti tehnologije, kar daje moč tovrstnim novicam ter informacijam in pogosto ustvarja žrtve, ki so praktično za vedno stigmatizirane, saj je potrebno vedeti, da informacije pogosto za vedno v neki obliki oz. formatu ostanejo na spletu. Največja nevarnost in hkrati največji potencial tehnologije je, da lahko prepriča ljudi – in ljudje, ki so v nekaj prepričani, lahko hitro postanejo soudeleženi v ustvarjanju razmer, ki lahko imajo hude socialne posledice. IT strokovnjaki, ki so iskreni sami s seboj, bodo priznali, da je masovno adaptacijo tehnologije s strani širše družbe nemogoče ustaviti in spet se moramo zateči k reakcijskim ukrepom v kontekstu zakonodajnih in regulativnih okvirov, a to nikakor ne bo zadoščalo. Investirati in raziskovati bo potrebno tehnologije, s katerimi bo mogoče uspešno blažiti negativne posledice, ki jih s seboj prinašajo tehnologije, kakor je »deepfake« tehnologija. Konkretno se potencial kaže v tehnološkem raziskovaju in razvoju unikatne digitalne identitete posameznika, ki bi v naraščujočem digitalnem kaosu lahko ločila resnično od lažno ustvarjenega in tudi v tehnologiji veriženja podatkovnih blokov (ang. blockchain). Potrebna je infrastruktura, s katero bo mogoče vzpostaviti model prevzemanja odgovornosti. Ena izmed potencialnih rešitev so tudi t.i. povratne zanke, ki omogočajo izboljšave sistemov, namenjenih preventivnim ukrepom (ang. feedback loop).

Od reakcijskih do preventivnih ukrepov

Tudi tokrat je na mestu poziv državi, ki pa mora tokrat poleg vzpostavitve zakonodajnih in regulativnih okvirov, bodisi sama ali v nadnacionalnem sodelovanju, vzpostaviti oz. zahtevati vzpostavitev dialoga s spletnimi in drugimi socialnimi mediji v zvezi s problematiko »deepfake«, o kateri se podjetja Facebook, Google, Twitter in spletni portali, kot je Reddit, niti ne želijo pogovarjati. Razlog je seveda odgovornost, ki se je vsi po vrsti izogibajo. Država mora zahtevati prevzemanje odgovornosti, saj bodo s tem podjetja prisiljena v razvoj in investicije preventinih ukrepov, s kateremi bo mogoče zaščititi družbo in državljane pred poskusi dezinformiranja. Vprašati se moramo, kaj se bo zgodilo ob naraščujočem številu ljudi, ki ne bodo zaupali informacijam, ki so jim podane na vsakodnevni ravni ali ko ne bodo zaupali temu, kar prihaja v kontekstu splošnega napredka in blaginje?

 

[1] Islovar. (2016). Deep learning. Dostopno prek: http://www.islovar.org/islovar

[2] https://www.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn

[3] Več o pomenu računalniškega vida za tehnološki razvoj si lahko preberete na sledeči povezavi:  eprints.fri.uni-lj.si/2493/1/ERK92.pdf

[4] Bregler, C, Covell, M, Slaney, M. (1997). Video Rewrite: Driving Visual Speech with Audio V Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. (24): 353–360.

[5] Suwajanakorn S., Seitz M. S. in Ira K. Shlizerman. (2017). Synthesizing Obama: Learning Lip Sync from Audio. Dostopno prek: grail.cs.washington.edu/projects/AudioToObama/siggraph17_obama.pdf