DIJELI | ISPIS | POŠALJI E-POŠTOM
Prije Covida, opisao bih se kao tehnološki optimist. Nove tehnologije gotovo uvijek dolaze usred pretjeranih strahova. Željeznice su navodno uzrokovale mentalne slomove, smatralo se da bicikli čine žene neplodnima ili ludima, a rana električna energija okrivljena je za sve, od moralnog propadanja do fizičkog kolapsa. S vremenom su te tjeskobe izblijedjele, društva su se prilagodila, a životni standard porastao. Uzorak je bio dovoljno poznat da se činilo vjerojatnim da će ga slijediti umjetna inteligencija: remetilačka, ponekad zloupotrijebljena, ali u konačnici upravljiva.
Godine Covida poljuljale su to povjerenje - ne zato što je tehnologija zakazala, već zato što su zakazale institucije.
Diljem većeg dijela svijeta, vlade i stručna tijela odgovorila su na neizvjesnost neviđenim društvenim i biomedicinskim intervencijama, opravdanim modelima najgoreg slučaja i provedenim s izvanrednom sigurnošću. Konkurentske hipoteze bile su marginalizirane umjesto da se o njima raspravlja. Hitne mjere učvrstile su se u dugoročnu politiku. Kada su se dokazi promijenili, priznanja pogrešaka bila su rijetka, a odgovornost još rjeđa. Iskustvo je otkrilo dublji problem od bilo koje pojedinačne političke pogreške: moderne institucije čine se slabo opremljenima za upravljanje neizvjesnošću bez pretjeranog naprezanja.
Ta lekcija sada uvelike utječe na rasprave o umjetnoj inteligenciji.
Podjela rizika umjetne inteligencije
Općenito govoreći, zabrinutost zbog napredne umjetne inteligencije dijeli se u dva tabora. Jedna skupina - povezana s misliocima poput Eliezera Yudkowskog i Natea Soaresa - tvrdi da je dovoljno napredna umjetna inteligencija katastrofalno opasna sama po sebi. U svojoj namjerno oštroj formulaciji, Ako ga itko izgradi, svi umiru, problem nisu loše namjere već poticaji: konkurencija osigurava da će netko zaobići prečke, a kada sustav izmakne značajnoj kontroli, namjere više nisu važne.
Drugi tabor, uključujući osobe poput Stuarta Russella, Nicka Bostroma i Maxa Tegmarka, također ozbiljno shvaća rizik umjetne inteligencije, ali je optimističniji da usklađivanje, pažljivo upravljanje i postupno uvođenje mogu održati sustave pod ljudskom kontrolom.
Unatoč razlikama, oba tabora slažu se u jednom zaključku: neograničen razvoj umjetne inteligencije je opasan i potreban je neki oblik nadzora, koordinacije ili ograničenja. Razilaze se oko izvedivosti i hitnosti. Međutim, ono što se rijetko ispituje jest jesu li institucije od kojih se očekuje da osiguraju to ograničenje same po sebi prikladne za tu ulogu.
Covid sugerira razlog za sumnju.
Covid nije bio samo kriza javnog zdravstva; bio je to živi eksperiment upravljanja vođenog stručnjacima u uvjetima neizvjesnosti. Suočene s nepotpunim podacima, vlasti su više puta birale maksimalne intervencije opravdane spekulativnom štetom. Neslaganje se često tretiralo kao moralni propust, a ne kao znanstvena nužnost. Politike se nisu branile transparentnom analizom troškova i koristi, već pozivanjem na autoritet i strahom od hipotetske budućnosti.
Ovaj obrazac je važan jer otkriva kako se moderne institucije ponašaju kada se ulozi shvaćaju kao egzistencijalni. Poticaji se pomiču prema odlučnosti, narativnoj kontroli i moralnoj sigurnosti. Ispravljanje pogrešaka postaje skupo za ugled. Oprez prestaje biti alat i postaje doktrina.
Pouka nije da su stručnjaci jedinstveno nesavršeni. Pouka je da institucije daleko pouzdanije nagrađuju pretjerano samopouzdanje nego poniznost, posebno kada se politika, financiranje i javni strah poklapaju. Nakon što se izvanredne ovlasti zatraže u ime sigurnosti, rijetko se one dobrovoljno predaju.
Upravo su to dinamike koje su sada vidljive u raspravama o nadzoru umjetne inteligencije.
Stroj "Što ako"
Ponavljano opravdanje za ekspanzivnu državnu intervenciju je hipotetski loš akter: Što ako terorist ovo izgradi? Što ako to učini neka odmetnuta država? Iz te pretpostavke proizlazi argument da vlade moraju djelovati preventivno, u velikim razmjerima i često u tajnosti, kako bi spriječile katastrofu.
Tijekom Covida, slična logika opravdavala je sveobuhvatne biomedicinske istraživačke programe, hitne autorizacije i društvene kontrole. Rezoniranje je bilo kružno: jer nešto opasno moć Da bi se to dogodilo, država mora odmah poduzeti izvanredne mjere - mjere koje su same po sebi nosile značajne, slabo shvaćene rizike.
Upravljanje umjetnom inteligencijom sve se više shvaća na isti način. Opasnost nije samo u tome što bi se sustavi umjetne inteligencije mogli ponašati nepredvidivo, već i u tome što će strah od te mogućnosti legitimizirati trajno upravljanje u izvanrednim situacijama - centraliziranu kontrolu nad računanjem, istraživanjem i tokovima informacija - na temelju toga što nema alternative.
Privatni rizik, javni rizik
Jedna podcijenjena razlika u tim raspravama jest ona između rizika koje generiraju privatni akteri i rizika koje generira državna vlast. Privatne tvrtke su ograničene - nesavršeno, ali značajno - odgovornošću, konkurencijom, ugledom i tržišnom disciplinom. Ta ograničenja ne uklanjaju štetu, ali stvaraju povratne petlje.
Vlade djeluju drugačije. Kada države djeluju u ime sprječavanja katastrofa, povratna informacija slabi. Neuspjesi se mogu reklasificirati kao nužnosti. Troškovi se mogu eksternalizirati. Tajnost se može opravdati sigurnošću. Hipotetičke buduće štete postaju političke poluge u sadašnjosti.
Nekoliko mislilaca umjetne inteligencije implicitno to priznaje. Bostrom je upozorio na učinke „zaključavanja“ - ne samo od sustava umjetne inteligencije, već i od upravljačkih struktura stvorenih u trenucima panike. Poziv Anthonyja Aguirrea na globalno suzdržavanje, iako logički koherentan, oslanja se na međunarodna koordinacijska tijela čiji je nedavni uspjeh u pogledu skromnosti i ispravljanja pogrešaka loš. Čak i umjereniji prijedlozi pretpostavljaju regulatore sposobne oduprijeti se politizaciji i širenju misije.
Covid nam daje malo razloga za povjerenje u tu pretpostavku.
Paradoks nadzora
To dovodi do uznemirujućeg paradoksa u srži rasprave o umjetnoj inteligenciji. Ako netko istinski vjeruje da naprednu umjetnu inteligenciju treba ograničiti, usporiti ili zaustaviti, vlade i transnacionalne institucije najvjerojatnije imaju moć to učiniti. Pa ipak, upravo su to akteri čije nedavno ponašanje daje najmanje povjerenja u suzdržanu, reverzibilnu upotrebu te moći.
Uokviravanje hitnih slučajeva je ljepljivo. Ovlasti stečene za upravljanje hipotetskim rizicima imaju tendenciju da traju i šire se. Institucije rijetko umanjuju vlastitu važnost. U kontekstu umjetne inteligencije to otvara mogućnost da odgovor na rizik umjetne inteligencije učvršćuje krhke, politizirane sustave kontrole koje je teže razbiti nego bilo koju pojedinačnu tehnologiju.
Drugim riječima, opasnost nije samo u tome što umjetna inteligencija izmiče ljudskoj kontroli, već i u tome što strah od umjetne inteligencije ubrzava koncentraciju autoriteta u institucijama koje su se već pokazale sporima u priznavanju pogrešaka i neprijateljski raspoloženima prema neslaganju.
Ponovno promišljanje o stvarnom riziku
Ovo nije argument za samozadovoljstvo oko umjetne inteligencije, niti poricanje da moćne tehnologije mogu nanijeti stvarnu štetu. To je argument za proširenje okvira. Institucionalni neuspjeh sam po sebi je egzistencijalna varijabla. Sustav koji pretpostavlja dobronamjerno, samokorektivno upravljanje nije sigurniji od onog koji pretpostavlja dobronamjernu, usklađenu superinteligenciju.
Prije Covida, bilo je razumno pripisati većinu tehnološkog pesimizma ljudskoj negativnoj pristranosti - sklonosti vjerovanju da su izazovi naše generacije jedinstveno neupravljivi. Nakon Covida, skepticizam manje izgleda kao pristranost, a više kao iskustvo.
Središnje pitanje u raspravi o umjetnoj inteligenciji stoga nije samo mogu li se strojevi uskladiti s ljudskim vrijednostima, već može li se modernim institucijama vjerovati da će upravljati neizvjesnošću bez njezinog pojačavanja. Ako je to povjerenje narušeno - a Covid sugerira da jest - tada pozivi na široki nadzor umjetne inteligencije zaslužuju barem jednako toliko pažnje kao i tvrdnje o tehnološkoj neizbježnosti.
Najveći rizik možda nije da umjetna inteligencija postane premoćna, već da strah od te mogućnosti opravdava oblike kontrole za koje kasnije otkrijemo da je s njima puno teže živjeti - ili izbjeći ih.
-
Roger Bate je Brownstoneov stipendist, viši suradnik Međunarodnog centra za pravo i ekonomiju (siječanj 2023. - danas), član odbora udruge Africa Fighting Malaria (rujan 2000. - danas) i suradnik Instituta za ekonomska pitanja (siječanj 2000. - danas).
Pogledaj sve postove