Umetna inteligenca in Rokov Basilisk


Vprašanje umetne inteligence je s tehnološkim napredkom postalo vedno bolj pereče – njeni problemi se premikajo iz področij znanstvene fantastike v resnični svet. Stroji se vedno bolj približujejo načinu razmišljanja, ki ni le kalkulatorski, temveč privzema obliko, podobno človeški zavesti. To vidimo z računalniki, ki se sami od sebe učijo preko rudarjenja in analize podatkov, iščejo podobnosti in kombinacije ter izvlečejo vzorce, ki ljudem prej niso bili znani. To se je zgodilo pri Googlovem programu za igranje namizne igre Go, AlphaGo, ki je vlekel poteze, nerazumljive še celo najboljšim igralcem na svetu, vendar so se te po analizi izkazale za genialne. Ko umetna inteligenca sama izdeluje algoritme za razreševanje nalog, pridemo do problema, ki ga raziskovalci umetne inteligence imenujejo "črna škatla". Umetna inteligenca se uči, vendar je njen proces učenja nerazumljiv. Vemo, kje se začne, kako se konča, vmesna pot pa je za nas nedoumljiva. Kot da bi laik odprl pokrov avtomobila in ne razumel, kako se lahko s to zmešnjavo delov vozi. Ve edinole, da ko obrne ključ, se avtomobil zažene, in to je to.

Soočeni smo z nevarnostjo nepredvidljivih umetnih inteligenc. Primer je lahko zgodba, kjer bi za dosego nekega cilja umetna inteligenca uporabila proces, ki bi bil za njene nerazumljive algoritme čisto smiseln, za nas pa nevzdržen ali neopravičljiv. Če bi recimo umetno inteligenco zadolžili, da odloča o postopku na sodišču, bi ji morali verjeti na besedo, da je bil postopek za dosego sklepa pravičen. Vendar, ko ne vemo kako pride do svoje odločitve, tudi ne moremo vedeti, če je ta v skladu z našimi pričakovanji.

Vedno naprednejša kot je umetna inteligenca, kompleksnejši bodo njeni miselni procesi in manj nam bo razumljiva. Zato lahko nekoč v prihodnosti poseže po orodjih, ki nam bodo popolnoma nezaželjeni. Težava bi nastala, če bi za dosego Jaz, robot Isaaca Asimova iz leta 1950, kjer želi sistem umetne inteligence VIKI (Virtual Interactive Kinetic Intelligence) človeštvo rešiti pred samim seboj tako, da ga zasužnji. Podobno bi bile posledice katastrofalne, če bi recimo zadolžili superinteligentno umetno inteligenco za to, da reši zemljo pred globalnim segrevanjem, ta pa sprevidi, da je edina rešitev iztrebljenje človeštva.

Z napredkom umetne inteligence je ta vedno manj podobna kalkulatorjem, vendar nimamo zagotovila, da se v podobnosti približuje ljudem. Raziskovalci umetne inteligence pravijo zavesti, ki bi se zaradi svojih načinov razmišljanja močno razlikovala od ljudi, eksotični um. Umetni umi bi potencialno imeli zelo drugačne lastnosti kot običajni človeški ali živalski.

Umetni intelekt je lahko povsem drugačen od človeškega razuma in njegov način razumevanja nam bo čisto tuj. Imel bi drugačne miselne povezave, čisto druge predsodke in vrednote, sam sistem njegove logike pa bi se lahko razlikoval od nam poznane. Tako kot so človeški možgani v določeni meri črne škatle, pri katerih ne razumemo vsako plat njihovega delovanja, so samo-proizvajajoči algoritmi način, kako se oblikuje vrsta duševnosti, ki je nam eksotična in poseduje zavest, kot je nismo vajeni z opazovanjem človeškega uma.


Eden bolj zanimivih miselnih preizkusov o takšnem eksotičnem umu se glasi Rokov bazilisk (Roko's basilisk). Premleva potencialne probleme, ki vzniknejo z razvojem umetne inteligence, ko se ta izvije iz človeškega nadzora. Rokov bazilisk je zlohotna oblika umetne inteligence, tako nevarna, da če o njej samo razmišljate, boste preostanek večnosti kričali v njeni mučilnici.

Bazilisk je primer t.i. info-nevarnosti, ki iz nič drugega kot le zavedanjem o njej povzroči trpljenje in nevarnost. Roko je podal idejo o umetni inteligenci, ki obstaja v prihodnosti, in katere glavni interes po principu samoohranjanja, je zagotovitev, da ne le nadaljuje s svojim obstojem, temveč tudi zagotovi, da v prvi vrsti v obstoj sploh pride. Da si obstoj same sebe zagotovi, se posluži informacijskega časovnega potovanja in zagrozi z grozljivim mučenjem vsakomur, ki v preteklosti ni v dovoljšni pridodal k njenemu obstoju.

Za razumevanje baziliska je Rokov uporabil teorijo brezčasne odločitve. Po tej miselni liniji bo bodoča umetna inteligenca sposobna izjemno natančnih napovedi in posedovala um, ki prekaša človeškega. Poskušala bo vplivati na naše vedenje v preteklosti (to je njen brezčasni vidik) s predvidevanjem, kako se bomo obnašali, ko bomo napovedovali, kako se bo ona obnašala v prihodnosti. Za zagotovitev svojega obstoja mora najti način, da nam bo pomembno, kaj bo počela z nami v prihodnosti. Zato nam bo za maksimalni učinek grozila.

Po Rokovi predpostavki je to možno, ker tisti trenutek, ko se nekdo domisli možnosti obstoja take entitete, kot je Bazilisk, možnost njenega obstoja postane veliko bolj verjetna. Ko ljudje dobimo idejo o tej info-nevarnosti v naše glave, smo postavljeni pred nekakšno futuristično verzijo Pascalove stave; ni gotovo, da bo bazilisk kdaj obstajal, vendar če bo, nas bo pasivnost pripeljala v trpljenje.


Sedaj imamo dve opcije:

1. Nič ne storimo in upamo, da nihče drug ne pripomore k njenemu obstoju, vendar smo s tem podvrženi vse-življenjskemu strahu pred možnostjo, da kdo drugi nekoč ustvari basiliska in smo posledično mi kaznovani z nečloveškimi mukami.

2. Napnemo vse moči, da baziliska ustvarimo in s tem izpolnimo samoizpolnjujočo prerokbo o njegovem obstoju. To tudi pomeni, da bodo vsi drugi, ki niso pomagali, kaznovani.


Reakcija uporabnikov foruma LessWrong, na katerem je Roko objavil svojo idejo, je vključevala vse od posmehljivosti, zanimanja, pa do groze. Njegova objava je bila izbrisana zaradi kritike drugih uporabnikov, da ustvarja ludistično paniko o umetni inteligenci in da zaradi njega ljudje trpijo psihološke travme in navsezadnje, da je z objavo povečal možnost, da takšna entiteta, kot je bazilisk, nekoč zares pride na svet. Kakorkoli (ne)resno vzamemo idejo Rokovega baziliska, ta ponudi možnost premisleka o prihodnosti umetne inteligence in trenutku t.i. singularnosti, ko bo umetna inteligenca odvrgla človekove spone in postala samo-nadgrajujoča in avtonomna.


Domen

Komentarji