V nasprotju s splošnim prepričanjem je artificial intelligence (AI) oziroma umetna inteligenca izjemno široko področje znanosti. Ste vedeli, da njene korenine segajo v petdeseta leta prejšnjega stoletja? Zakaj je trajalo skoraj 70 let, da smo dobili ChatGPT? In zakaj ga poskušamo regulirati šele zdaj?

To dolgo potovanje je mogoče pojasniti s kombinacijo tehnoloških omejitev, teoretičnih izzivov, (ne)razpoložljivosti podatkov in premikov v fokusu raziskav. Razvoj ChatGPT je trajal približno 70 let, ker so bile zgodnje raziskave umetne inteligence v petdesetih in šestdesetih letih omejene z osnovno strojno opremo in pomanjkanjem velikih podatkovnih nizov.

Razvoj prepreden s pomanjkanjem

Področje se je soočilo z več “zimami” zaradi neizpolnjenih pričakovanj, vendar je pomemben napredek prišel z vzponom strojnega učenja v osemdesetih letih, ki so mu sledili preboji globokega učenja.

Prevladujoča uporaba interneta je zagotovila ogromno besedilnih podatkov, medtem ko je specializirana strojna oprema omogočila računalniško izvedljivo usposabljanje velikih modelov.

Razvoj transformatorske arhitekture leta 2017 je končno omogočil sofisticirano razumevanje jezika, kar je vodilo do zmogljivih modelov, kot sta GPT-3 in GPT-4. Ti temeljijo na globokem učenju ter so zasnovani za generiranje naravnih besedil in razumevanje človeškega jezika na način, ki je presenetljivo podoben človeškemu.

S čim imamo opravka danes?

Danes je AI krovni izraz za različna podpodročja.

Strojno učenje je glavni motor večine sodobnih sistemov umetne inteligence, ki se osredotoča na razvoj specializiranih algoritmov. Ti se učijo iz vhodnih podatkov.

Globoko učenje je podmnožica strojnega učenja, ki se osredotoča na nevronske mreže z več plastmi (globoke arhitekture). To podpolje je povzročilo nastanek konvolucijskih nevronskih mrež, ki se pogosto uporabljajo v računalniškem vidu, ponavljajočih se nevronskih mrež in kasneje transformatorjev ter generativnih kontradiktornih mrež (GAN) za generativne naloge.

Obdelava naravnega jezika se osredotoča na razumevanje in ustvarjanje človeškega jezika.

Računalniški vid se ukvarja z omogočanjem strojne interpretacije vizualnih podatkov.

Raznolikost znotraj AI izhaja tudi iz neštetih metodologij, ki se uporabljajo za reševanje različnih problemov, od katerih je vsaka prilagojena specifičnim aplikacijam.

Probabilistični modeli uporabljajo statistična načela za sklepanje o distribucijah osnovnih podatkov in kvantificiranje negotovosti.

Evolucijski algoritmi se zgledujejo po biološki evoluciji z uporabo mehanizmov, kot so mutacija, križanje in selekcija za reševanje problemov optimizacije.

Simbolna umetna inteligenca, ki jo pogosto zasenči globoko učenje, se opira na eksplicitno predstavitev znanja in sklepanje ter ostaja pomembna v aplikacijah, ki zahtevajo interpretabilnost. Dandanes smo priča naraščajočemu trendu hibridnih modelov, ki združujejo simbolično razmišljanje z globokim učenjem.

Kompleksnost razvoja umetne inteligence ni le v ustvarjanju in usposabljanju modelov, temveč tudi v upravljanju celotnega življenjskega cikla – vključno z zbiranjem podatkov, uvajanjem modela in njegovim vzdrževanjem. Poleg tega je umetna inteligenca interdisciplinarne narave, saj črpa vpoglede iz nevroznanosti, fizike, ekonomije in podobno.

Težko določljiva zakonska snov 

Umetna inteligenca je obsežna in kompleksna, zato se zdi naloga njene regulacije skoraj nepremostljiva. Vprašajte se, kako zagotoviti, da bodo regulatorji sploh razumeli, kaj urejajo? Kako bodo ohranjali regulativno strokovno znanje na hitro razvijajočem se področju? Kako ravnati s sistemi, ki združujejo več pristopov?

EU verjame, da je njena regulativna odličnost kos izzivu z novo zakonodajo o AI. Kakšni pa so konkretni načrti? Akt o umetni inteligenci razvršča aplikacije umetne inteligence v štiri stopnje tveganja – minimalno, omejeno, visoko in nesprejemljivo – glede na njihov potencial škodovanja posameznikom ali družbi.

Prav tako določa, da morajo sistemi umetne inteligence, ki se uporabljajo na področjih z visokim tveganjem, opraviti ocene tveganja. Hkrati pa ne določa izrecno, kaj so “visokokakovostni” ali “reprezentativni” podatki. To pušča prostor za razlago in morebitno nedoslednost pri njegovem izvrševanju. Kaj so “pošteni” podatki ali kako je pristranskost količinsko opredeljena, ni jasno določeno. Zato bi to v praksi lahko povzročilo različne zakonske interpretacije.

Bo regulacija dohajala razvoj

Čeprav akt zahteva “strogo testiranje”, ne predpisuje podrobnih metodologij za to, kaj naj bi to vključevalo. Kako strogo je “strogo”? Kakšno testiranje je treba opraviti in kdo je odgovoren za to? Postopki vrednotenja uspešnosti in ocene tveganja so ključni. Toda brez jasnejših smernic o meritvah, merilih uspešnosti in preskusnih postopkih obstaja tveganje, da bo akt EU o AI preveč prožen, da bi zagotovil dejansko varnost.

Navsezadnje se poskuša spoprijeti s problemom, ki je morda preveč večplasten in dinamičen, da bi ga lahko učinkovito urejali. Kot smo pravilno poudarili, odgovorni morda – v primeru popolnega razumevanja zapletenosti umetne inteligence – niso nič bolj obveščeni od povprečnega bralca.

Cilji akta so občudovanja vredni, vendar bo njegovo izvajanje verjetno ogrozila sama narava področja, ki ga želi urediti. Zaradi tega bodo njegove rešitve omejene in nepopolne ter morda ne bodo zmogle slediti razvijajočemu se okolju umetne inteligence.