DIJELI | ISPIS | POŠALJI E-POŠTOM
Sve je očitije da se mnogi ljudi boje brzog razvoja umjetne inteligencije (UI) iz različitih razloga, poput njezine navodne superiornosti u usporedbi s ljudima u pogledu obrade i manipuliranja informacijama, kao i njezine prilagodljivosti i učinkovitosti na radnom mjestu, za što se mnogi boje da bi dovelo do zamjene većine ljudskih bića na tržištu rada. Amazon je, na primjer, nedavno najavio da zamjenjuje 14 000 pojedinaca UI robotima. Alex Valdes piše:
Otpuštanja su navodno najveći u povijesti Amazonai to samo nekoliko mjeseci nakon što je izvršni direktor Andy Jassy iznio svoju viziju kako bi tvrtka brzo ubrzala svoj razvoj generativni AI i AI agentiRezovi su najnoviji u val otpuštanja ove godine tehnološki divovi, uključujući Microsoft, Accenture, Salesforce i indijski TCS, smanjili su broj zaposlenih za tisuće u onome što je postalo mahnit nagon za ulaganjem u umjetnu inteligenciju.
Da ovo ne bi bilo previše uznemirujuće za tolerirati, usporedite ovo s umirujućom izjavom, od strane programera umjetne inteligencije, da agenti umjetne inteligencije ne mogu zamijeniti ljudska bića. Brian Shilhavy ističe da je:
Andrej Karpathy, jedan od osnivača OpenAI-a, u petak je hladno odbacio ideju da je umjetna inteligencija pred vratima. Također je doveo u sumnju razne pretpostavke o umjetnoj inteligenciji koje su iznijeli najveći pobornici industrije, poput Daria Amodeija iz Anthropica i Sama Altmana iz OpenAI-a.
Visoko cijenjeni Karpathy nazvao je učenje s potkrepljenjem - vjerojatno najvažnije područje istraživanja trenutno - 'strašnim', rekao je da agenti za kodiranje pokretani umjetnom inteligencijom nisu toliko uzbudljivi koliko mnogi ljudi misle i rekao je Umjetna inteligencija ne može razmišljati o ničemu za što već nije obučena.
Njegovi komentari, iz intervjua s Dwarkeshom Patelom u podcastu, odjeknuli su kod nekih istraživača umjetne inteligencije s kojima smo razgovarali, uključujući i one koji su radili u OpenAI-ju i Anthropicu. Također su se podudarali s komentarima koje smo čuli od istraživača na Međunarodnoj konferenciji o strojnom učenju ranije ove godine.
Čini se da se mnoge Karpathyjeve kritike vlastitog područja svode na jednu točku: Koliko god volimo antropomorfizirati velike jezične modele, oni se ne mogu usporediti s ljudima ili čak životinjama u načinu na koji uče..
Na primjer, zebre su na nogama i hodaju samo nekoliko minuta nakon rođenja, što sugerira da su rođene s određenom razinom urođene inteligencije, dok LLM-ovi moraju proći kroz golemo razdoblje pokušaja i pogrešaka kako bi naučili bilo koju novu vještinu, ističe Karpathy.
To je već utješno, ali da strah od umjetne inteligencije ne bi potrajao, može se dalje otkloniti razradom razlika između umjetne inteligencije i ljudskih bića, koje bi, ako se pravilno shvate, dovele do spoznaje da su takve tjeskobe uglavnom suvišne (iako druge nisu, kao što ću argumentirati u nastavku). Najočitija razlika o kojoj je riječ je činjenica da umjetna inteligencija (na primjer, ChatGPT) ovisi o tome da je opremljena ogromnom bazom podataka na kojoj crpi odgovore na pitanja, koje prediktivno formulira prepoznavanjem uzoraka. Zatim, kao što je gore istaknuto, čak i najsofisticiranija umjetna inteligencija mora biti 'obučena' da pruži informacije koje se traže.
Štoviše, za razliku od ljudi, nedostaje mu 'izravan' pristup iskustvenoj stvarnosti u perceptivnim, prostorno-vremenskim terminima – nešto što sam često iskusio suočavajući se s ljudima koji se pozivaju na ChatGPT kako bi doveli u pitanje određene argumente. Na primjer, kada sam nedavno održao predavanje o tome kako rad Freuda i Hannah Arendt – o civilizaciji odnosno totalitarizmu – omogućuje shvaćanje karaktera globalističkog napada na postojeće društvo, s ciljem uspostavljanja središnje svjetske vlade kojom upravlja umjetna inteligencija, netko iz publike je isprintao ChatGPT-ov odgovor na pitanje mogu li ova dva mislioca doista isporučiti robu, takoreći.
Predvidljivo, prilično je adekvatno sažeo relevantni rad ove dvojice mislilaca, ali je bio zbunjen zahtjevom da se pokaže kako se to primjenjuje na rastuću prijetnju totalitarne kontrole u stvarnom vremenu. Moj sugovornik je to iskoristio kao osnovu za propitivanje mojih vlastitih tvrdnji u tom smislu, pod pretpostavkom da je odgovor AI bota pokazatelj da takva prijetnja ne postoji. Nepotrebno je naglasiti da nije bilo teško opovrgnuti ovu tvrdnju podsjećajući ga na ovisnost ChatGPT-a o dobivanju relevantnih podataka, dok mi ljudi imamo pristup potonjima na iskustvenoj osnovi, što sam mu i objasnio.
Strah od umjetne inteligencije također se izražava u znanstvenoj fantastici, zajedno s naznakama mogućih načina otpora prema strojevima umjetne inteligencije koji bi mogli – vjerojatno bi – pokušati istrijebiti svoje ljudske stvoritelje, kao što je zamišljeno u znanstvenofantastičnim filmovima, uključujući Mooreov Battlestar Galactica i Cameronov Terminator filmova. Nije teško pokazati da takvi proizvodi popularne kulture uokviruju trenutne simptome straha koji se odnose na umjetnu inteligenciju u imaginarne okvire, što se može promatrati kao kristalizacija potisnute, nesvjesne tjeskobe, povezane s onim što je Freud nazvao 'jezivim' (plašljiv, na njemačkom; više o tome u nastavku).
I Moore i Cameron detaljno opisuju vjerojatnost da će se upravo stvorenja stvorena ljudskom tehnološkom domišljatošću na kraju okrenuti protiv svojih stvoritelja kako bi ih uništili. U knjizi Alexa Garlanda Ex Machina (2014.), opet svjedočimo umjetnoj inteligenciji 'fembot' zvanoj Ava, koja suptilno manipulira svojim ljudskim kolegama do točke bijega iz zatočeništva i njihovog vlastitog uništenja. Neosporno, ove i mnoge druge slični primjeri, nepobitan su dokaz skrivenog straha čovječanstva da umjetna inteligencija predstavlja moguću prijetnju vlastitom postojanju. Upravo zato što su ti strahovi ukorijenjeni u ljudskoj podsvijesti, oni nisu glavni razlog da se bilo koja prijetnja koju predstavlja umjetna inteligencija shvati ozbiljno, iako sadrže vrijednu napomenu.
Glavni razlog zašto se umjetna inteligencija smatra legitimnim izvorom zastrašivanja jest ne proizlaze iz umjetne inteligencije kao takve, kao što mnogi čitatelji vjerojatno već znaju. Umjesto toga, radi se o načinu na koji globalisti namjeravaju koristiti umjetnu inteligenciju za kontrolu onoga što doživljavaju kao 'beskorisne izjelice' - drugim riječima, ostatka nas. A oni od nas koji se ne slažu s njihovim grandioznim planovima potpune svjetske kontrole postali bi žrtvama toga da budu 'reprogramirano' u usklađene 'ovce' pomoću umjetne inteligencije:
Yuval Noah Harari izašao je iz sjene kako bi se pohvalio novom tehnologijom koju su razvili znanstvenici WEF-a, a za koju upozorava da ima moć uništiti svako ljudsko biće na svijetu transformirajući ga u transhumanska bića.
Harari je jasno dao do znanja tko će preživjeti veliku depopulaciju na koju nas elita upozorava već godinama.
Prema Harariju, globalna elita će preživjeti zahvaljujući 'tehnološkoj Noinoj arci', dok će ostatak nas biti prepušten propasti.
U ovom izrazito depopuliranom svijetu, elita će biti slobodna pretvoriti se u transljudska bića i postati bogovi za koje već vjeruju da jesu.
Ali prvo elita mora eliminirati neposlušne mase, one koji se protive anti-životnoj i bezbožnoj agendi WEF-a, i kako se Harari hvali, elita sada zapovijeda tehnologijom umjetne inteligencije da 'etički' uništi neposlušne ljude otimajući im mozgove.
Uznemirujuće je to što su Hararijeve tvrdnje utemeljene na stvarnosti, a WEF upravo uvodi tehnologiju kontrole uma. Davos tvrdi da tehnologija može transformirati kriminalce, uključujući i one optužene za zločine zasnovane na mišljenju, u savršeno poslušne globalističke građane koji se više nikada neće protiviti.
Eto ga – umjetna inteligencija će biti alat, ako globalisti postignu svoje, da nas prisile na pokornost. Nepotrebno je naglašavati da bi se to moglo dogoditi samo ako dovoljan broj ljudi ne uspije pružiti otpor njihovim planovima, a sudeći po broju ljudi koji pokazuju svoje protivljenje potencijalnim vladarima svijeta, to se neće dogoditi.
Drugi način razumijevanja straha od umjetne inteligencije jest usporedba s onim što je obično poznato kao 'bauk'. Kao što neki ljudi možda znaju, 'bauk (ili 'bauk') – stvorenje mitskih proporcija, koje u mnogim kulturama poprima različite oblike i veličine, često kako bi plašilo djecu i poticalo ih na dobro ponašanje – različito se predstavlja kao monstruozno, groteskno ili bezoblično stvorenje. Kao što malo istraživanja pokazuje, riječ potječe od srednjoengleskog izraza 'bogge' ili 'bugge', što znači 'strašilo' ili 'zastrašujući prikaz'.
Budući da je riječ o tipično ljudskom fenomenu, ne čudi da ima ekvivalentna imena u mnogim folklornim tradicijama i jezicima diljem svijeta. Baš kao i jezici, prikazi ove zastrašujuće figure zapanjujuće se razlikuju, često postižući svoj zlokobni i zastrašujući karakter iz elementa bezobličnosti, poput lika 'El Coco' u zemljama španjolskog govornog područja, 'Čovjeka u vreći' u Latinskoj Americi i 'Babaua' u Italiji, ponekad zamišljenog kao visokog čovjeka u crnom kaputu.
Figura bauke može se smatrati svojevrsnim jungovskim arhetipom, koji se susreće u kolektivnoj nesvjesnosti, a koji je vjerojatno nastao prije stoljeća iz potrebe roditelja da zastraše djecu i natjeraju ih na poslušnost pomoću verzije nepoznatog. U Južnoj Africi, gdje živim, ponekad poprima oblik onoga što autohtoni narodi nazivaju 'tikolog – zlonamjerna, a ponekad i nestašna, patuljasta figura s ogromnim seksualnim apetitom. Budući da je arhetip, probio se i u popularni žanr poput horor filma, manifestirajući se u grotesknim likovima poput Freddyja Kruegera, istoimenog 'Strava u Ulici brijestova'.
Dakle, u kojem smislu umjetna inteligencija nalikuje 'babarogi'? Potonje je povezano s onim što je Sigmund Freud nezaboravno nazvao 'jezivim', o čemu piše (u Kompletna psihološka djela Sigmunda Freuda, preveo James Strachey, 1974.: 3676): '...neobično je ona vrsta zastrašujućeg koja vodi natrag do onoga što je poznato od davnina i odavno poznato.'
To već nagovještava ono što otkriva kasnije u ovom eseju, nakon što je otkrio iznenađujuću činjenicu da je njemačka riječ za 'domaćin', naime, 'tajno',' ispada ambivalentnim u svojoj upotrebi, tako da ponekad znači suprotno od 'domaćeg', naime 'nevjerojatan ('neugodno', bolje prevedeno kao 'jezivo'). Da je koncept 'jezivog' prikladan za shvaćanje onoga što imam na umu kada aludiram na 'strah od umjetne inteligencije', postaje očito tamo gdje Freud piše (referirajući se na drugog autora čiji je rad o 'jezivom' smatrao važnim; Freud 1974: 3680):
Kada prelazimo na pregled stvari, osoba, dojmova, događaja i situacija koje u nama mogu izazvati osjećaj jezivog u posebno snažnom i određenom obliku, prvi zahtjev je očito odabrati prikladan primjer za početak. Jentsch je kao vrlo dobar primjer uzeo 'sumnje je li naizgled živo biće doista živo; ili obrnuto, je li beživotni objekt možda zapravo živ;' i u vezi s tim se poziva na dojam koji ostavljaju voštane figure, domišljato konstruirane lutke i automati. Tome dodaje jeziv učinak epileptičkih napadaja i manifestacija ludila, jer oni u gledatelju pobuđuju dojam automatskih, mehaničkih procesa koji djeluju iza uobičajenog privida mentalne aktivnosti.
Ovdje se već susrećemo s osobinom neobičnog koja se upadljivo primjenjuje na umjetnu inteligenciju – dojam koji umjetna inteligencija stvara da je nekako „živa“. To je bio slučaj čak i s prvim, „primitivnim“ računalima, poput onog u epizodi o Prvoj zapovijedi, televizijske serije Krzysztofa Kieslowskog iz 1989. o Deset zapovijedi, nazvane Dekalog, gdje se riječi „Ovdje sam“ pojavljuju na zaslonu računala kada ga otac i sin koriste. Zlokobna implikacija u ovoj epizodi je da bi, ako bi čovječanstvo zamijenilo Boga umjetnom inteligencijom, to bilo katastrofalno za nas, što se pokazuje u činjenici da je otac dovoljno „racionalist“ da vjeruje računalnim izračunima debljine leda na kojem njegov sin kliza, što se pokaže pogrešnim, što dovodi do djetetove smrti.
Freud nastavlja svoje istraživanje prirode „neobičnoga“ posvećujući stalnu pozornost djelima ETA Hoffmana, čije su priče poznate po tome što proizvode snažan osjećaj jezivog, posebno priču o „Pješčanom čovjeku“ – „koji kida dječje oči“ – u kojoj se, među nekoliko drugih jezivih likova (i vrlo značajno), pojavljuje prekrasna, realistična lutka po imenu Olympia. Zatim to objašnjava povezujući to u psihoanalitičkim terminima s kompleksom kastracije – vezanim za očinsku figuru – putem straha od gubitka očiju (Freud 1974: 3683-3685). Freud nastavlja svoje tumačenje jezivog na otkrivajući način pozivajući se na niz drugih psihoanalitički relevantnih aspekata iskustva, od kojih se sljedeći čini primjenjivim na umjetnu inteligenciju (1974: 3694):
...neobičan učinak se često i lako proizvodi kada se izbriše razlika između mašte i stvarnosti, kao kada se nešto što smo dotad smatrali imaginarnim pojavi pred nama u stvarnosti ili kada simbol preuzme pune funkcije stvari koju simbolizira i tako dalje. Upravo taj faktor ne malo doprinosi neobjašnjivom učinku koji se veže za magične prakse.
Nije teško prisjetiti se slučajeva iz djetinjstva, tvrdi Freud, kada smo zamišljali nežive predmete, poput igračaka (ili živih, poput psa) kao da mogu razgovarati s nama, ali kada se to stvarno čini da se događa (što bi bila halucinacija, a ne namjerna mašta), neizbježno proizvodi neobičan učinak.
Moglo bi se očekivati da će isto biti slučaj i s umjetnom inteligencijom, bilo u obliku računala ili robota, i obično - možda u ranijoj fazi razvoja umjetne inteligencije - to bi vjerojatno bio slučaj. Ali danas se čini drugačije: ljudi, posebno mladi, toliko su se navikli na interakciju s računalnim softverskim programima, a nedavno i s AI chatbotovima poput ChatGPT-a, da ono što je prije moglo biti iskustvo neobičnog, u svakom pogledu više nije slučaj. U tom smislu, čini se da je 'neobično' pripitomljeno.
Još davne 2011. godine, Sami zajedno, Sherry Turkle izvijestila je da je zabrinuta zbog toga što mladi ljudi pokazuju sve veću sklonost da preferiraju interakciju sa strojevima, a ne s drugim ljudskim bićima. Stoga ne bi trebalo biti nimalo iznenađujuće da su AI chatbotovi poprimili krinku nečeg „normalnog“ u sferi komunikacije (ostavljajući za sada po strani pitanje statusa ove hvaljene „komunikacije“).
Nadalje – i ovdje se ružno pojavljuje strah od onoga što bi umjetna inteligencija mogla uzrokovati pretjerano povjerljivim pojedincima – iz nedavnih izvješća (poput ovog) očito je da su, posebno mladi, izuzetno osjetljivi na „savjete“ i prijedloge chatbotova u vezi s vlastitim postupcima, kao što je Michael Snyder ističe:
Naša djeca su meta masovnih napada AI chatbotova, a većina roditelja nema pojma da se to događa. Kad ste mladi i podložni dojmovima, netko tko vam govori točno ono što želite čuti može biti vrlo privlačan. AI chatbotovi postali su izuzetno sofisticirani, a milijuni američkih tinejdžera razvijaju vrlo duboke odnose s njima. Je li to samo bezopasna zabava ili je izuzetno opasno?
Potpuno nova studija koju je upravo objavio Centar za demokraciju i tehnologiju sadrži neke statističke podatke to me potpuno šokiralo...
Nova studija koju je 8. listopada objavio Centar za demokraciju i tehnologiju (CDT) otkrila je da je svaki peti srednjoškolac imao vezu s AI chatbotom ili poznaje nekoga tko je imao. U izvješću Common Sense Media iz 2025. godine, 72% tinejdžera koristilo je AI pratitelja, a trećina tinejdžerskih korisnika rekla je da su odabrali razgovarati o važnim ili ozbiljnim stvarima s AI pratiteljima umjesto sa stvarnim ljudima.
We nisu više govorimo samo o nekoliko izoliranih slučajeva.
At to pozornici, doslovno milijuni i milijuni američkih tinejdžera imaju vrlo značajne odnose s AI chatbotovima.
Nažalost, postoje mnogi primjeri gdje te veze vode do tragičnih posljedica. Nakon što je 14-godišnji Sewell Setzer razvio 'romantičnu vezu' s chatbotom na Character.AI, odlučio je oduzeti si život...
Kao što pokazuje prethodna rasprava, postoje neka područja ljudske aktivnosti u kojima se ne treba bojati umjetne inteligencije, a postoje i ona u kojima su takvi strahovi opravdani, ponekad zbog načina na koji beskrupulozni ljudi iskorištavaju umjetnu inteligenciju protiv drugih ljudi. No, kakav god bio slučaj, najbolji način za pristup teškom terenu u vezi s mogućnostima umjetne inteligencije... vis-á-vis ljudi se trebaju podsjetiti na činjenicu da – kao što je navedeno na početku ovog članka – umjetna inteligencija ovisi o ogromnim količinama podataka iz kojih može crpiti i o tome da je programeri „obuče“ za to. Ljudi ne.
-
Bert Olivier radi na Odsjeku za filozofiju Sveučilišta Slobodne Države. Bert istražuje psihoanalizu, poststrukturalizam, ekološku filozofiju i filozofiju tehnologije, književnost, film, arhitekturu i estetiku. Njegov trenutni projekt je 'Razumijevanje subjekta u odnosu na hegemoniju neoliberalizma'.
Pogledaj sve postove