MAGAZIN PEXELSPHOTO BY igovar igovar
PEXELS/IGOVAR IGOVAR
23.2.2026., 7:30
FELJTON UI (3): PERSONA EX MACHINA

Gdje je nestao čovjek? Zašto nas danas obuzima konsternacija i pomalo usplahirena rasprava o umjetnoj inteligenciji?

Moralna odgovornost i neizravne dužnosti uče nas kako da ostanemo na tračnicama humanizma...

U trećem nastavku feljtona Magazina Glasa Slavonije dr. sc. Tomislav Nedić, docent na Katedri za građansko i građansko procesno pravo Pravnog fakulteta Sveučilišta Josipa Jurja Strossmayera u Osijeku i predsjednik Nadzornog odbora Hrvatskog filozofskog društva, piše o aktualnoj problematici robotizacije i umjetnoj inteligenciji.

“Jedan je čovjek to predvidio” (engl. One man saw it coming). Službeni je slogan poznatog blockbustera “Ja, robot”, snimljenog sada već davne 2004. godine, koji započinje slavnim zakonima robotike Isaaca Asimova. Radnja filma smještena je u 2035. godinu, u kojoj tehnofobični detektiv Spooner (Will Smith) istražuje ubojstvo za koje se sumnja da ga je počinio robot, što ga postupno vodi prema znatno većoj prijetnji - opstanku čovječanstva.

U jednoj od najpoznatijih scena detektiv Spooner u policijskoj postaji ispituje robota optuženog za ubojstvo vlastitog konstruktora, a njihov dijalog sažima temeljna pitanja ljudskog postupanja prema robotima, njihova pravnog i moralnog statusa, mogućih robotskih prava i odgovornosti, ali i šira iskušenja transhumanizma. Robot mu govori kako ga je njegov otac pokušao podučiti ljudskim emocijama, iako su se pokazale prilično zahtjevnima. Spooner ga ispravlja, podsjećajući da misli na svojeg konstruktora, ne oca, što robot potvrđuje. Kada ga detektiv izravno pita zašto ga je onda ubio, robot to poriče. Na pitanje zašto se onda skrivao na mjestu zločina, robot odgovara da se bojao. Spooner tada ljutito konstatira da se roboti ne mogu bojati jer ne mogu osjećati, jesti, spavati ni sanjati. Robot ga prekida tvrdeći da on spava i da ima snove. Detektiv mu uzvraća kako snove imaju ljudska bića, pa čak i psi, ali ne i on, jer je tek stroj, puka imitacija života.

Dvojbe i sumnje

Zašto se detektiv prema robotu odnosi na taj način? Što mu pokušava uskratiti, poništiti, derogirati? Zašto nas danas obuzima konsternacija i pomalo usplahirena rasprava o umjetnoj inteligenciji? Premda ne 2035., ali 2026. godine, nakon više od desetljeća tehnološkog razvoja, istraživanja i učenja, nastao je RINNO, prvi hrvatski humanoidni robot. Njegovo stvaranje i javno predstavljanje, sam epitet “humanoidni”, kao i uvid u pomalo šokantne mogućnosti kojima raspolaže, ponovno su u javnosti otvorili pitanja statusa robota i robotskih prava, ali i straha za opstanak čovječanstva. Međutim, zašto strah? Čega se, zapravo, bojimo?

Bojimo se izjednačavanja robota s nama, ljudima. Bojimo se nestanka “ljudskog” i prevlasti “transljudskog”. Bojimo se robota i umjetne inteligencije kao nositelja prava. Bojimo se robota i umjetne inteligencije kao osoba. Osoba koje bi, naposljetku, kako predviđaju određeni znanstvenofantastični uraci, mogle ugroziti opstanak ljudske vrste.

MAGAZIN PEXELSPHOTO BY cottonbro studio
FELJTON: UI (2)
Takozvana umjetna inteligencija ne vlada uvjerenjima, nego uvjerenja vladaju njome

No što je uopće osoba? Grčki pojam prόsopon (grč. πρόσωπον) i latinski persona (od glagola per-sono, zvučati kroz i odzvanjati) u antičkom je terminološkom pogledu označavala ne samo osobu već prije svega određeno lice i masku, onu masku koju su nosili glumci u antičkoj tragediji ili komediji. Etimološko-filozofijsko razumijevanje pojma osoba donosi rimski filozof Boecije tvrdeći da je ime “osoba” preneseno od onih maski (personae) koje su u komedijama i tragedijama predstavljale ljude koji su sudjelovali u radnji. Sukladno s etimološkim postavkama osobnosti (maska i lice), koncept osobnosti predstavlja personifikaciju odnosne uloge koju dajemo određenom entitetu. One uloge, ali i obilježja i privilegija, koju taj isti entitet ima u odnosu prema ostalima.

Osoba je ishodišni pojam prava, osobito privatnog prava, ali i filozofije, napose moralne filozofije, iako se o osobnosti često raspravlja i u okviru antropologije, psihologije, teologije i sociologije. Osoba označava entitet koji uživa određeni moralni i pravni status, koji je na temelju vlastite razumske obdarenosti sposoban biti moralni i pravni agens te koji ima sposobnost spoznaje vlastitog identiteta. Filozofijska rasprava osobu povezuje s racionalnošću, samosviješću, moralnošću, pravima i dužnostima te socijalnim i kulturnim djelovanjem. Prema Immanuelu Kantu, osoba je subjekt čija su djelovanja uračunljiva, odnosno umno biće koje je po svojoj prirodi svrha sama po sebi, a ne puko sredstvo, zbog čega je predmet poštovanja. Suprotnost osobi jest - stvar. Manihejska ostavština prava i etike dopušta tek statusnu podjelu na osobe i stvari, pa samim time u jednu od tih kategorija moramo svrstati i robote te umjetnu inteligenciju.

Pokušavajući robotu derogirati svaku primisao o osobnosti i nositeljstvu prava, detektiv Spooner u jednom trenutku pokušava robotu Sonnyju nametnuti status stvari, obraćajući mu se uvredljivo: “Odgovori mi, konzervo.” No robotova svijest o vlastitom identitetu navodi ga da mu uzvrati: “Moje ime je Sonny.”

Koncept osobe nije tek teorijsko pitanje. Moralno djelovanje prema osobama temelj je suvremene civilizacije i međuljudskih odnosa, kako je to sažeo poznati kantovac Samuel Kerstein u naslovu svoje knjige “Kako postupati prema osobama?” (engl. How to Treat Persons?). Pritom naše dužnosti i obveze nisu usmjerene isključivo prema ljudskim bićima, već su one otvorene i prema neljudskim entitetima. Moralno ophođenje moguće je samo prema osobama, ne i prema stvarima, osim ako se stvar ne promatra kroz vlasništvo neke osobe, što je opet povreda prava te osobe, a ne stvari. Postupanje u skladu s Kantovom drugom formulacijom kategoričkog imperativa - uvijek postupaj prema osobi kao cilju, a nikada samo kao sredstvu - jedno je od temeljnih postavki deontološke etike. Dostojanstvo osobe ne prestaje ni smrću, zbog čega govorimo o pijetetu i dostojanstvu pokojnika. Sloboda i autonomija ključne su odlike moralnog djelatništva i osobnosti. Problem nastaje onoga trenutka kada umjetna inteligencija počne razvijati obilježja na temelju kojih je možemo označiti autonomnim agensom. Autonomija podrazumijeva sposobnost razuma da sam sebi postavlja zakon, točnije ona se odnosi na moralno uvjetovanu samoodređenost subjekta. Ona, međutim, ne znači slobodu činjenja svega što poželimo, već djelovanje u okvirima moralnih načela.

MAGAZIN PEXELSPHOTO BY Pavel Danilyuk
PEXELS/PAVEL DANILYUK

Relacijsko shvaćanje

Kako se sve ovo reflektira u našem svakodnevnom djelatništvu s umjetnom inteligencijom? Tko je odgovoran ako robotski sustav obavi kirurški zahvat koji je postavio čovjek, a dođe do pogreške? Tko snosi odgovornost ako autonomno vozilo pregazi pješaka ili počini prometni delikt? Što ako se pojavi klasična moralna dvojba, u etici poznata kao problem tramvaja (engl. trolley problem), i autonomno vozilo u prometnoj nedaći mora birati između primjerice života djeteta i starije osobe? Upravo je potonja situacija razlog Spoonerova animoziteta prema robotima. U prometnoj nesreći, gdje su automobili naposljetku sletjeli u rijeku, utapali su se Spooner i dijete. Robot koji je slučajno prolazio spasio je Spoonera jer je matematički izračunao da Spooner ima mnogo više šanse da preživi od malog djeteta. Takvu vrstu generiranja (kvazi-)moralne prosudbe Spooner nije mogao oprostiti robotima smatrajući da je etički prihvatljivije spasiti dijete pred kojim je cijeli život. Recite, kako biste pak vi postupili u navedenoj situaciji?

Upravo se tim pitanjima bavi projekt Moral Machine uglednog američkog tehničkog sveučilišta MIT-a (Massachusetts Institute of Technology). Riječ je o internetskoj platformi koja generira moralne dileme i prikuplja podatke o odlukama koje ljudi donose u situacijama bez dobrog ishoda, pokušavajući generirati i poopćiti moral. Istraživanja su pokazala da moralne prosudbe nisu univerzalne i nisu dio isključivo intrinzične sfere pojedinca, već snažno ovise o kulturološkom kontekstu. Ispitanici u Europi češće daju prednost mladima, dok ispitanici u Japanu prednost daju starijima, gdje je starost simbol mudrosti i autoriteta. Kako onda uopće generirati moral? I premda će prvi hrvatski humanoidni robot Rinno za sebe reći da je tek alat i da nikada neće dosegnuti razinu ljudi, sam epitet humanoidni upućuje na nešto ljudsko. Ne samo u anatomskim i motoričkim sposobnostima već možda i u nečem mnogo sofisticiranijem. Hoće li umjetna inteligencija ikada razumjeti pojmove poput morala, autonomije, duha, duše, emocija ili empatije? Jesu li to, možda, pojmovi koji su produkt sposobnosti logičkog rasuđivanja (primjer empatije kao zaključivanja a simili), pa samim time i tek određeni algoritam?

Recite, pozdravite li ili zahvalite ChatGPT-u kada vam odgovori na pitanje? Ako da, zašto? David Gunkel, jedan od najutjecajnijih suvremenih etičara umjetne inteligencije, predlaže relacijsko shvaćanje našeg odnosa prema umjetnoj inteligenciji i robotima. Presudna nije ontološka danost robota, točnije što robot “jest”, već kakav odnos s nama uspostavlja. Osobnost, tvrdi Gunkel, nije prirodna kategorija, već društveni učinak. Djeca, osobe s teškim kognitivnim oštećenjima, korporacije i države nemaju autonomiju u klasičnom smislu, ali ih ipak smatramo osobama jer se prema njima tako odnosimo u moralnim i pravnim odnosima. Relacijsko shvaćanje navodi zaključku da moralni i pravni status robota ne proizlazi iz njihovih intrinzičnih svojstava, već iz društvenih i normativnih odnosa koje ljudi s njima uspostavljaju.

MAGAZIN PEXELSPHOTO BY cottonbro studio
PEXELS/COTTONBRO STUDIO

Moralna odgovornost

U eksperimentima koje je provodila istraživačica MIT Media Laba, Kate Darling, sudionicima je dan socijalni robot na kratko “čuvanje”, tijekom kojeg su s njim komunicirali, igrali se, izvršavali jednostavne zadatke i brinuli se o njemu, a na kraju im je bilo naloženo da ga nasilno onesposobe, točnije unište. Iako su znali da robot nema osjećaje i da njegova biotička svojstva nisu ista čovjekovom, mnogi su to odbili ili su pokazivali izrazito snažnu nelagodu. Ti rezultati pokazuju da ljudi ne reagiraju na robote isključivo kao na strojeve, već razvijaju moralni, pa čak i emocionalni odnos prema njima. Upravo taj odnos, a ne intrinzična svojstva robota, prema etičarima umjetne inteligencije poput Davida Gunkela stvara osjećaj moralne odgovornosti. Ta moralna odgovornost i neizravne dužnosti uče nas kako da ostanemo na tračnicama humanizma.

Ipak, treba naglasiti kako pravo ne dodjeljuje osobnost i pravni subjektivitet isključivo ljudima, već da se osobnost, osim one naravno ljudske, može shvatiti i kao fiktivna konstrukcija. Pravne osobe, poput korporacija ili država, također su osobe, točnije pravne (juridičke) osobe. Austrijski pravni filozof Hans Kelsen ističe da čovjek i subjekt nisu isti pojmovi: čovjek je biološka i prirodoznanstvena kategorija, dok je subjekt konstrukcija pravne znanosti. Čak i ako bismo zaključili da su osobe isključivo ljudi, ostaje temeljno pitanje: što čovjeka čini čovjekom? Čovjek i ljudsko biće nisu sinonimi. Prvo je humanistički pojam, drugo je biološki pojam. Hrvatski filozof i bioetičar Hrvoje Jurić upozorava da se uz pitanje “što je čovjek?” moramo uvijek i nanovo pitati i “tko je čovjek?” odnosno “tko je sve čovjek?” Nemaju sva ljudska bića jednaku mogućnost empatije, moralne prosudbe i duhovne refleksije. Na Spoonerovu tvrdnju da robot ne može, primjerice stvarati umjetnost, robot Sonny uzvraća protupitanjem može li to uopće svaki čovjek. Detektiv na to nije imao odgovor. Zato Hrvoje Jurić navodi kako je svaki univerzalni i apsolutni pojam čovjeka nastajao prema uzoru na tek određenoga čovjeka, “nalažljivog u određenoj skupini ljudi, da bi, u povratnoj sprezi, nakon univerzaliziranja i apsolutiziranja onog izabranog, važio samo za tu, određenu skupinu ljudi.”

MAGAZIN PEXELSSPHOVO BY cottonbro studio
FELJTON: UI (1)
Na umjetnu inteligenciju treba gledati kao na dobro organiziranu knjižnicu s kustosom koji tu i tamo pogriješi

Iz svega priloženog može se uvidjeti kompleksnost pojma osobe, te velik broj iskušenja koje taj koncept sa sobom nosi. Stručnjaci u području prava i etike, ali i drugih društveno-humanističkih znanosti, još uvijek pokušavaju istražiti koji su to kraseći elementi osobnosti te kako bismo pravno i moralno trebali biti postavljeni u odnosu prema entitetima koje možemo, ali i koje ne možemo karakterizirati osobama. Hrvatski etičar umjetne inteligencije Luka Perušić smatra kako primjena sustava umjetne inteligencije predstavlja dimenziju u kojoj je njihova korisnost opterećena širim ideološkim okvirom koji proizlazi iz kulturnih sukoba i navika koje su se povijesno oblikovale. U kontekstu našeg odnosa prema umjetnoj inteligenciji i robotima, možda bismo, za početak, trebali mogućnosti postaviti ne toliko ideološki i ontološki, koliko relacijski. Što je ono što bi nas kao ljude u odnosu prema robotima uspjelo očuvati “ljudima”? Čak i ako zaključimo da roboti nemaju mogućnost moralne prosudbe, empatije ili iskazivanja emocija, daje li nam to za pravo da se prema njima ophodimo kako god želimo?

MAGAZIN PEXELSPHOTO BY Alex Knight
PEXELS/ALEX KNIGHT

Snaga čovječanstva

Etika je svojevrsno nijekanje čovjekove čiste životinjske prirode. One prirode koja ga navodi da postupa isključivo prema instinktu i fizičkim nagonima. Biti “čovjek” nije biološka, već humanistička kategorija. Snaga čovječanstva, između ostalog, ogleda se u etici kao isključivo produktu ljudskog uma, etički utemeljenom međuophođenju, skrbi za ljudska i neljudska biotička bića (životinje, stabla, priroda i dijelovi prirode), empatiji, izgradnji sustava skrbi i države kao najvažnije političke zajednice uopće. Etika i moralni obzir prema drugome predstavljaju ishodište humanizma. Čovjek je jedna od rijetkih, a možda i jedina, životinja koja njeguje koncept brige za drugoga, izvan kategorije roditeljstva. Upravo to znači biti “čovjek”, nešto što ne krasi nijedno drugo biće.

U tom je duhu uprizoren završetak jednog od najvećih znanstvenofantastičnih filmova u povijesti - Cameronova Terminatora (Terminator 2: Sudnji dan). Opraštajući se od dječaka prije samouništenja, brišući mu suze, Terminator izriče riječi koje znače mnogo više od same činjenice biotičke razlike robota i ljudi: “Sada razumijem zašto ljudi plaču, ali to je nešto što ja nikada neću moći.”