DIJELI | ISPIS | POŠALJI E-POŠTOM
Moje iskustvo u medicini omogućuje mi da razlikujem istinsku inovaciju od suptilne reklasifikacije koja temeljno mijenja praksu, a pritom se čini nepromijenjenom. Umjetna inteligencija nedavno je privukla znatnu pozornost, uključujući široko rasprostranjenu tvrdnju da je umjetna inteligencija „zakonski ovlaštena za prakticiranje medicine“ u Sjedinjenim Državama. Doslovno protumačena, ova tvrdnja je netočna. Nijedan medicinski odbor nije licencirao stroj. Nijedan algoritam nije položio zakletvu, prihvatio fiducijarnu dužnost ili preuzeo osobnu odgovornost za štetu pacijenta. Nijedan robot liječnik ne otvara kliniku, ne naplaćuje osiguravateljima niti stoji pred porotom za nesavjesno liječenje.
Međutim, zaustavljanje na ovom zapažanju previđa šire pitanje. Pravni koncepti odgovornosti trenutno se redefiniraju, često bez javne svijesti.
U tijeku je značajna transformacija koja zahtijeva više od refleksnog odbacivanja ili nekritičkog tehnološkog entuzijazma. Trenutni razvoj nije licenciranje umjetne inteligencije kao liječnika, već postupno erozija ključne granice medicine: intrinzične veze između kliničke prosudbe i ljudske odgovornosti. Klinička prosudba uključuje donošenje informiranih odluka prilagođenih jedinstvenim potrebama i okolnostima svakog pacijenta, što zahtijeva empatiju, intuiciju i duboko razumijevanje medicinske etike.
Ljudska odgovornost odnosi se na odgovornost koju pružatelji zdravstvene skrbi preuzimaju za te odluke i njihove ishode. Ova erozija nije rezultat dramatičnog zakonodavstva ili javne rasprave, već se događa tiho kroz pilot programe, regulatorna reinterpretiranja i jezik koji namjerno prikriva odgovornost. Nakon što se ta granica otopi, medicina se transformira na načine koje je teško preokrenuti.
Glavna briga nije može li umjetna inteligencija ponovno izdavati recepte ili uočiti abnormalne laboratorijske rezultate. Medicina već dugo koristi alate, a pružatelji zdravstvene skrbi općenito pozdravljaju pomoć koja smanjuje administrativne zadatke ili poboljšava prepoznavanje obrazaca. Pravo je pitanje može li se medicinska prosudba - odlučivanje o ispravnim radnjama, pacijentima i rizicima - promatrati kao računalno generiran ishod odvojen od moralne odgovornosti. Povijesno gledano, napori da se prosudba odvoji od odgovornosti često su uzrokovali štetu bez preuzimanja odgovornosti.
Nedavni razvoj događaja razjašnjava uzroke trenutne zbrke. U nekoliko država, ograničeni pilot programi sada omogućuju sustavima vođenim umjetnom inteligencijom da pomognu u obnavljanju recepata za stabilna kronična stanja prema usko definiranim protokolima. Na saveznoj razini, predloženo zakonodavstvo razmatralo je može li se umjetna inteligencija kvalificirati kao "praktičar" za određene zakonske svrhe, pod uvjetom da je na odgovarajući način regulirana. Ove inicijative obično se predstavljaju kao pragmatični odgovori na nedostatak liječnika, kašnjenja u pristupu i administrativne neučinkovitosti. Iako nitko izričito ne označava umjetnu inteligenciju kao liječnika, zajedno normaliziraju zabrinjavajuću pretpostavku da se medicinske radnje mogu odvijati bez jasno prepoznatljivog ljudskog donositelja odluka.
U praksi je ova razlika temeljna. Medicina se ne definira mehaničkim izvršavanjem zadataka, već dodjeljivanjem odgovornosti kada su ishodi nepovoljni. Pisanje recepta je jednostavno; prihvaćanje odgovornosti za njegove posljedice - posebno kada se razmatraju komorbiditeti, društveni kontekst, vrijednosti pacijenta ili nepotpune informacije - daleko je složenije. Tijekom moje karijere, ova je odgovornost kontinuirano bila na čovjeku koji se mogao ispitivati, osporavati, ispravljati i smatrati odgovornim. Kada dr. Smith pogriješi, obitelj zna koga kontaktirati, osiguravajući izravnu vezu s ljudskom odgovornošću. Nijedan algoritam, bez obzira na sofisticiranost, ne može ispuniti ovu ulogu.
Primarni rizik nije tehnološki, već regulatorni i filozofski. Ovaj prijelaz predstavlja pomak od etike vrlina prema proceduralizmu. Kada zakonodavci i institucije redefiniraju medicinsko donošenje odluka kao funkciju sustava, a ne osobnih djela, mijenja se moralni okvir medicine. Odgovornost postaje difuzna, štetu je teže pripisati, a odgovornost se prebacuje s kliničara na procese, s prosudbe na pridržavanje protokola. Kada se neizbježno dogode pogreške, prevladavajuće objašnjenje postaje da je „sustav slijedio utvrđene smjernice“. Prepoznavanje ovog prijelaza pojašnjava pomak od individualiziranog etičkog donošenja odluka prema mehaniziranom proceduralnom poštivanju.
Ova zabrinutost nije teoretska. Suvremena zdravstvena skrb već se suočava s izazovima vezanim uz razvodnjenu odgovornost. Primijetio sam kako se pacijenti oštećeni odlukama vođenim algoritmima gube među administratorima, dobavljačima i neprozirnim modelima, bez jasnog odgovora na temeljno pitanje: Tko je donio ovu odluku? Umjetna inteligencija značajno ubrzava ovaj problem. Algoritam ne može pružiti moralna objašnjenja, primijeniti suzdržanost na temelju savjesti, odbiti radnje zbog etičkih problema ili priznati pogrešku pacijentu ili obitelji.
Zagovornici povećane autonomije umjetne inteligencije često navode učinkovitost kao opravdanje. Klinike su preopterećene, liječnici doživljavaju izgaranje, a pacijenti često čekaju mjesecima na njegu koja bi trebala trajati samo nekoliko minuta. Ove su brige legitimne i svaki pošten kliničar ih prepoznaje. Međutim, sama učinkovitost ne opravdava promjenu etičkih temelja medicine. Sustavi optimizirani za brzinu i opseg često žrtvuju nijanse, diskreciju i individualno dostojanstvo. Povijesno gledano, medicina se odupirala ovoj tendenciji naglašavajući da je skrb u osnovi odnos, a ne transakcija.
Umjetna inteligencija riskira da preokrene ovaj odnos. Kada sustavi, a ne pojedinci, pružaju skrb, pacijent više nije uključen u ugovor s kliničarom, već postaje dio tijeka rada. Liječnik preuzima ulogu nadzornika stroja ili, što je još zabrinjavajuće, služi kao pravni tampon koji apsorbira odgovornost za odluke koje nije osobno donio. S vremenom, klinička prosudba ustupa mjesto pridržavanju protokola, a moralna aktivnost postupno se smanjuje.
Umjetna inteligencija također uvodi suptilniji i opasniji problem: maskiranje neizvjesnosti. Medicina živi u dvosmislenosti. Dokazi su probabilistički. Smjernice su privremene. Pacijenti se rijetko pojavljuju kao čisti skupovi podataka. Kliničari su obučeni ne samo da djeluju, već i da oklijevaju - da prepoznaju kada su informacije nedovoljne, kada intervencija može uzrokovati više štete nego koristi ili kada je ispravan put čekanje. Zamislite scenarij u kojem umjetna inteligencija preporučuje otpust, ali pacijentov supružnik djeluje prestrašeno, što naglašava napetost između algoritamskog donošenja odluka i ljudske intuicije. Takvo trenje u stvarnom svijetu naglašava važnost dvosmislenosti.
Sustavi umjetne inteligencije ne doživljavaju nesigurnost; oni generiraju izlaze. Kada su netočni, često to čine s neopravdanim samopouzdanjem. Ova karakteristika nije programska greška, već inherentna značajka statističkog modeliranja. Za razliku od iskusnih kliničara koji otvoreno izražavaju sumnju, modeli velikih jezika i sustavi strojnog učenja ne mogu prepoznati vlastita ograničenja. Oni proizvode uvjerljive odgovore čak i kada podaci nisu dovoljni. U medicini, uvjerljivost bez potkrepljenja može biti opasna.
Kako se ovi sustavi ranije integriraju u kliničke tijekove rada, njihovi rezultati sve više utječu na kasnije odluke. S vremenom, kliničari mogu početi vjerovati preporukama ne zbog njihove valjanosti, već zato što su postale normalizirane. Prosudba se postupno prebacuje s aktivnog rasuđivanja na pasivno prihvaćanje. U takvim okolnostima, „čovjek u krugu“ služi kao malo više od simbolične zaštite.
Zagovornici često tvrde da će umjetna inteligencija samo 'poboljšati' kliničare, a ne zamijeniti ih. Međutim, to uvjeravanje je krhko. Nakon što umjetna inteligencija pokaže dobitke u učinkovitosti, ekonomski i institucionalni pritisci obično potiču povećanu autonomiju. Ako sustav može sigurno ponovno izdavati recepte, uskoro bi mu moglo biti dopušteno i inicirati ih. Ako može točno dijagnosticirati uobičajena stanja, dovodi se u pitanje potreba za liječničkim pregledom. Ako nadmaši ljude u kontroliranim mjerilima, tolerancija na ljudsku varijabilnost se smanjuje.
S obzirom na ove trendove, provedba specifičnih zaštitnih mjera je ključna. Na primjer, obvezne revizije neusklađenosti kod 5% odluka donesenih na temelju umjetne inteligencije mogle bi poslužiti kao konkretna provjera, osiguravajući usklađenost između preporuka umjetne inteligencije i ljudske kliničke prosudbe, a istovremeno pružajući regulatorima i bolničkim upravnim odborima praktične metrike za praćenje integracije umjetne inteligencije.
Ova pitanja nisu postavljena sa zlonamjerom; ona se prirodno pojavljuju unutar sustava usmjerenih na ograničavanje troškova i skalabilnost. Međutim, ona ukazuju na budućnost u kojoj ljudska prosudba postaje iznimka, a ne norma. U takvom scenariju, pojedinci s resursima i dalje će primati ljudsku skrb, dok će drugi biti usmjereni kroz automatizirane procese. Dvoslojna medicina neće proizaći iz ideologije, već iz optimizacije.
Ono što ovaj trenutak čini posebno nesigurnim jest nedostatak jasnih linija odgovornosti. Kada odluka donesena umjetnom inteligencijom našteti pacijentu, tko je odgovoran? Nadzire li kliničar nominalno sustav? Institucija koja ga je implementirala? Dobavljač koji je obučio model? Regulator koji je odobrio njegovu upotrebu? Bez eksplicitnih odgovora, odgovornost nestaje. A kada odgovornost nestane, ubrzo slijedi i povjerenje.
Medicina je u osnovi ovisna o povjerenju. Pacijenti stavljaju svoja tijela, strahove, a često i svoje živote u ruke kliničara. To povjerenje ne može se prenijeti na algoritam, bez obzira na njegovu sofisticiranost. Temelji se na uvjerenju da je prisutno ljudsko biće - netko tko je sposoban slušati, prilagođavati se i biti odgovoran za svoje postupke.
Potpuno odbacivanje umjetne inteligencije nije potrebno. Kada se koristi razborito, umjetna inteligencija može smanjiti administrativno opterećenje, identificirati obrasce koje ljudi ne mogu otkriti i podržati kliničko donošenje odluka. Može omogućiti liječnicima da posvete više vremena brizi o pacijentima, a ne administrativnim zadacima. Međutim, ostvarenje ove budućnosti zahtijeva jasnu predanost održavanju ljudske odgovornosti u središtu medicinske prakse.
„Čovjek u krugu“ mora značiti više od simboličnog nadzora. Trebao bi zahtijevati da određena osoba bude odgovorna za svaku medicinsku odluku, razumije njezino obrazloženje i zadrži i ovlast i obvezu poništavanja algoritamskih preporuka. Također mora uključivati transparentnost, objašnjivost i informirani pristanak pacijenta, kao i predanost ulaganju u ljudske kliničare, a ne njihovoj zamjeni umjetnom inteligencijom.
Primarni rizik nije pretjerana moć umjetne inteligencije, već spremnost institucija da se odreknu odgovornosti. U potrazi za učinkovitošću i inovacijama postoji opasnost da će medicina postati tehnički napredno, administrativno pojednostavljeno područje, a ipak bez moralne supstance.
Dok razmatramo budućnost, bitno je zapitati se: Kakvog iscjelitelja zamišljamo uz bolesnički krevet 2035. godine? Ovo pitanje poziva na kolektivnu moralnu imaginaciju, potičući nas da oblikujemo budućnost u kojoj ljudska odgovornost i suosjećajna skrb ostaju u središtu medicinske prakse. Mobilizacija kolektivnog djelovanja bit će ključna za osiguravanje da napredak u umjetnoj inteligenciji pojača, a ne potkopa, ove temeljne vrijednosti.
Umjetna inteligencija nije dobila licencu za bavljenje medicinom. Ali medicina se tiho preoblikuje oko sustava koji nemaju moralnu težinu. Ako se taj proces nastavi nekontrolirano, jednog dana bismo mogli otkriti da liječnika nije zamijenio stroj, već protokol - i da kada se dogodi šteta, nema nikoga tko bi za nju odgovarao.
To ne bi bio napredak. To bi bilo odricanje.
-
Joseph Varon, dr. med. je liječnik intenzivne njege, profesor i predsjednik Neovisnog medicinskog saveza. Autor je više od 980 recenziranih publikacija i glavni je urednik časopisa Journal of Independent Medicine.
Pogledaj sve postove