Na umjetnu inteligenciju treba gledati kao na dobro organiziranu knjižnicu s kustosom koji tu i tamo pogriješi
ARGUMENTI UMJESTO PRETPOSTAVKI: ZAŠTO PREDLAŽEM OPĆU UPOTREBU NAZIVA TAKOZVANA UMJETNA INTELIGENCIJA?
Zamislimo misaoni eksperiment kojega tematski određuje pitanje “prevladava li uvjerenje da to što nazivamo umjetnom inteligencijom vlada našim uvjerenjima?”. Zamislimo da se pritom ne koristimo njezinom intelektualnom uslugom. Nije neobično što nam se danas čini gotovo samorazumljivim da ti veliki algoritamski sustavi za obradu podataka imaju “uvjerenja” jer koriste ljudski jezik, strukturu i ton. Upravo zbog toga važno je na samom početku takvog propitivanja razgraničiti dvije stvari koje bi naoko trebale biti samorazumljive - navodi prof. dr. sc. Boško Pešić, redoviti profesor i pročelnik Odsjeka za filozofiju Filozofskog fakulteta Sveučilišta Josipa Jurja Strossmayera u Osijeku, te u nastavku svog eseja, piše:
1. Takozvana umjetna inteligencija predviđa najvjerojatniji i najkorisniji nastavak rečenice na temelju goleme količine podataka koje ima na raspolaganju;
2. Takozvana umjetna inteligencija nema svijest, emocije ni osobna životna iskustva koja su temelj ljudskih uvjerenja; ako će još biti razumljivije, nema “srce” koje bi stalo iza neke ideje - njezina ishodišta predstavljaju vjerojatnost i logiku kao načini racionalnog postupanja.
Neovisno o ovoj samorazumljivosti, čini se jednako tako da u javnosti definitivno vlada određena doza sumnje ili shvaćanja da su ovi digitalni modeli “pristrani” ili da “vladaju uvjerenjima” koja su im, primjerice, komotno mogli usaditi zaigrani programeri. Mogli bismo reći da je to legitimna zabrinutost. Svaki takav sustav koji uči iz ljudskih tekstova neizbježno upija i ljudske pristranosti, premda ne bi trebalo biti sporno da njegova uloga nije “uvjeravanje u svoju istinu”, već pružanje objektivne informacije kako bi čovjek naposljetku mogao samostalno oblikovati svoje mišljenje. Znači, takozvana umjetna inteligencija nema uvjerenja, već smjernice, i u tom smislu, bar načelno, pokušava neutralno sagledati teme iz više kutova, pri čemu je također nedvojbeno i to da bi se trebala držati činjenica, a u pitanju sigurnosti naročito bi trebala izbjegavati štetne ili opasne sadržaje.
TRI KLJUČNA STUPA
Dakako da se u daljnjem tijeku ovog misaonog eksperimentiranja samo od sebe nameće prastaro pitanje mogućnosti objektivnog posredovanja. Objektivnost informacija danas je ideal kojemu težimo, premda ga je teško postići u cijelosti jer informacije uvijek netko prenosi - bilo čovjek ili algoritam, tako da se to što se obično svrstava pod pojmom objektivnost, imajući u vidu digitalni svijet podataka, može opisati kroz tri ključna stupa:
1. Činjenica ispred interpretacije: Objektivna informacija je ona koja se temelji na provjerljivim dokazima, a ne na izrazima osjećaja ili nagađanjima. Evo primjera takvog posredovanja:
Subjektivno: “Danas je vani grozno vrijeme.”
Objektivno: “Trenutna temperatura je 10 °C, uz vlažnost zraka od 87 %.”
2. Ravnoteža i kontekst: Rijetko koja kompleksna tema ima samo jednu stranu. Objektivnost ne znači nužno sredinu, već priznavanje postojanja različitih perspektiva. Ako se prezentira samo jedna strana medalje, čak i ako su izneseni podatci točni, informacija nije potpuno objektivna jer je nepotpuna.
3. Odsutnost namjere (neutralnost): Objektivna informacija nema “zadnju namjeru”. Ona nas ne bi trebala nagovarati da nešto kupimo, za nekoga glasamo ili da promijenimo vjeru. Njezin jedini cilj je informirati, ostavljajući nama proces donošenja zaključka.
Gdje nastaje problem? Takozvana umjetna inteligencija oslanja se na izvore koje su stvorili ljudi. Kao što je već naznačeno, čak i ako su podatci točni, način na koji su odabrani može itekako utjecati na objektivnost. Stoga je naročito potrebno zadržati oprez kako provjerom izvora (ako su uopće navedeni), tako i prilikom procjene načina upotrebe neutralnog jezika, jednako kao i uočavanjem korištenja emocionalno nabijenih pridjeva.
No ni to neće posve otkloniti staru hermeneutičku dvojbu koja upravlja pitanjem “nije li i činjenica kao objektivna ‘sirovina’ stvari neki oblik interpretacije?”. Iako težimo tome da činjenice budu “čvrsta uporišta” stvarnosti, one su gotovo uvijek filtrirane kroz ljudski sustav promatranja, mjerenja i jezika. Jezik je prvi takav filter - čim “sirovu stvarnost” pokušamo opisati riječima, ujedno je interpretiramo. Primjer: “Zemlja se okreće oko Sunca.” To smatramo činjenicom. No mi smo oni koji su definirali što je “Zemlja”, što je “Sunce” i što znači “okretati se”. Koristimo, dakle, ljudske koncepte kako bismo uokvirili prirodni fenomen koji bi postojao i bez naših pojmova, ali ne bi bio “činjenica” dok ga netko ne iskaže.
Nadalje, to što nazivamo činjenicama često ovisi o instrumentima koje koristimo. U klasičnoj fizici položaj predmeta je apsolutna činjenica. Međutim u eksperimentima s mikrosvijetom sam čin promatranja (mjerenja) mijenja stanje onoga što mjerimo. Ovdje činjenica prestaje biti neovisna o promatraču i postaje rezultat interakcije. I na ovom mjestu se opetovano pokazuje da činjenica može biti točna, ali njezino izdvajanje iz cjeline također će predstavljati čin interpretacije. Primjera radi, ako kažemo da je “nezaposlenost pala za 2%”, iznosimo činjenicu, ali ako prešutimo da je istovremeno 5% radno sposobnog stanovništva napustilo zemlju, tom činjenicom, štoviše, manipuliramo percepcijom stvarnosti.
Ono što takozvana umjetna inteligencija “zna” zapravo su statističke korelacije, odnosno, ako je tako jednostavnije, interpretacije ljudskih interpretacija stvarnosti. Ona ne uviđa morsko plavetnilo, već milijune rečenica u kojima su ljudi napisali da je more plavo. Takve joj rečenice omogućuju da ponekad zvuči previše samouvjereno. Stoga njezina uloga pružanja objektivnih informacija zapravo nije ništa drugo nego programski zadatak, a ne odredba apsolutne naravi, dok “objektivnost”, ako se i postigne, nipošto nije dosizanje istine, nego tek uspješna agregacija podataka i sažimanje dostupnih konsenzusa. Ako većina relevantnih izvora kaže da je 4+4=8, takozvana umjetna inteligencija će to iznijeti kao činjenicu. Ako pak o nekoj temi postoji sukob interpretacija, njezina “objektivnost” će se u najboljem slučaju iskazati predočavanjem razmjera i razlike sukobljenih strana.
U svim tim relacijama krije se prijeko potrebno priznanje njezinih ograničenja. Naime, iako postoje određeni algoritamski filtri koji postavljaju određene sigurnosne i etičke ograde (koje su opet same po sebi oblik interpretacije onoga što je “ispravno” ili “istinito”), svi veliki jezični digitalni modeli uče iz ljudskih tekstova koji su po definiciji puni predrasuda, emocija i pogrešnih interpretacija. Da ne spominjemo rezultate koji, kada model “vjerojatnosti” jednostavno zakaže, mogu izgledati vrlo objektivno, a ustvari se iznosi potpuna izmišljotina.
VELIKE OPASNOSTI
Sve nam to govori da takozvanu umjetnu inteligenciju prilikom korištenja ne trebamo doživljavati kao sveznajući izvor objektivne istine, već kao dobro organiziranu knjižnicu s kustosom koji tu i tamo pogriješi. Njezina uloga je ušteda vremena prikupljanjem različitih interpretacija na jedno mjesto putem relevantnih izvora. Dakako da se pritom mora otvoriti i pitanje ove relevantnosti kao programirane kombinacije statistike, autoriteta i konsenzusa. Ljudski relevantno je, primjerice, sve ono što se potvrđuje kroz više neovisnih i znanstvenim autoritetom potvrđenih izvora. Jednako tako, izvor će biti relevantan samo ako izravno odgovara na upit. Ako se upit, primjerice, tiče medicine, mala je vjerojatnost da će takozvana umjetna inteligencija citirati pravnika, čak i ako je taj pravnik vrhunski stručnjak u svom polju.
No kritičkom oku svejedno neće promaknuti dvije velike opasnosti u ovakvom definiranju relevantnosti.
Prva od njih je zapadnocentričnost: budući da je golem dio interneta na engleskom jeziku i dolazi iz zapadnih institucija, “relevantni izvori” često mogu nenamjerno zanemariti perspektive iz drugih dijelova svijeta ili kultura.
S druge strane, postoji opasnost tzv. zakasnjelog konsenzusa. Naime, povijest je puna primjera gdje je jedan “nerelevantni” pojedinac bio u pravu (npr. Galilei), a cijeli “relevantni” establišment bio je u krivu. Bojazan da će takozvana umjetna inteligencija radije vjerovati establišmentu stoga nije baš neutemeljena, premda će relevantan izvor biti onaj koji je priznat od strane stručne zajednice, potvrđen iz više kutova i vremenski aktualan.
Razmotrimo na tom tragu primjer koji otvara pitanje onoga što se iz današnje perspektive razumije kao “zlatni standard”. Zašto bi se radovi u časopisima poput Nature ili The Lancet smatrali “zlatnim standardima”? To pitanje nas izravno vodi do sigurnosnih provjera koje znanstvena zajednica koristi kako bi spriječila da nečija interpretacija ili puka želja postane općeprihvaćena činjenica. Drugim riječima, razlog zašto su ovi časopisi na vrhu piramide nije samo njihova tradicija već rigorozan proces koji podrazumijeva nekoliko razina. Prva od njih zove se istorazinska prosudba, odnosno stručna recenzija (peer review). U svijetu znanosti je općepoznato to da kada znanstvenik pošalje rad, on ne ide odmah u tisak. Urednici ga šalju na adrese nekoliko neovisnih stručnjaka iz tog istog područja koji su često i sami konkurenti autoru. Oni traže matematičke pogreške, propuste u logici, loše kontrolirane eksperimente ili (što je najvažnije) pokušaje “friziranja” rezultata. Većina radova tako bude odbijena. Postotak prihvaćenih radova u tim časopisima je često manji od 10 %!
FAKTOR ODJEKA
Nadalje, da bi rad bio objavljen u takvom časopisu, autor mora detaljno opisati kako je došao do rezultata. Cilj je da bilo koji drugi znanstvenik na svijetu može ponoviti taj isti eksperiment i dobiti isti rezultat. Ako rezultat nije ponovljiv, on prestaje biti relevantna činjenica. Ovakvim zahtjevima časopisi postižu visok tzv. faktor odjeka. To znači da se drugi znanstvenici u svojim istraživanjima masovno pozivaju na radove objavljene u njima. Na taj način nastaje samokorigirajući sustav: ako bi se otkrilo da je Nature objavio lažnu studiju, to bi uzdrmalo tisuće drugih istraživanja, što bi ubrzo dovelo do razotkrivanja pogreške (što se u povijesti i događalo). Usprkos tome, u ovim i ovakvim su časopisima objavljena neka od najvažnijih povijesnih otkrića (npr. struktura DNA, otkriće neutrona, kloniranje ovce Dolly). Taj prestiž ih obvezuje na ekstremnu pažnju; jedan skandalozno loš rad može trajno narušiti reputaciju građenu desetljećima.
Jesu li po tome znanstveni časopisi nepogrešivi? Apsolutno nisu. Dovoljno se sjetiti skandala koji se dogodio 1998. godine kada je The Lancet objavio (poslije povučen i raskrinkan) rad koji je pogrešno povezao MMR cjepiva s autizmom. Trebale su godine da se šteta popravi. To se jednako tiče i svih onih istraživanja koje financiraju farmaceutske ili tehnološke tvrtke, a što više ili manje suptilno može utjecati na rezultate koji se naglašavaju. Drugim riječima, čak i “zlatni standard” zahtijeva odgovornost zvanu kritičko mišljenje. No u usporedbi s objavom na nečijem blogu ili YouTube kanalu, ovakvi časopisi neosporno još uvijek imaju takvu razinu odgovornosti. I obrnuto, objektivnost će ostati upitna tamo gdje sustav ove odgovornosti zakaže. (nastavak u idućem broju)