Informatička komponenta neodjeljivi je oblik ratnih operacija
PROF. DR. SC. MARINKO OGOREC STRUČNJAK JE ZA SIGURNOST
Kako je naša civilizacija sa svakim danom sve ovisnija o digitalizaciji praktično svih sustava i procesa, tako će društvo biti sve osjetljivije na prijetnje i rizike u tom segmentu - kaže prof. dr. sc. Marinko Ogorec, stručnjak za sigurnost i predavač na Veleučilištu Velika Gorica, te dodaje:
- Različiti oblici kibernetičkih prijetnji (od "običnog" hakiranja, preko cyber-kriminala i cyber-terorizma, sve do sofisticiranih oblika cyber-ratovanja) sve više se javljaju u funkcioniranju brojnih institucija i organizacija nanoseći sve ozbiljnije štete. Posebno se ta sfera virtualnih prijetnji veže uz razne oblike cyber ratovanja, pri čemu se smatra da su prvi operativni oblici takvog ratovanja bili vezani uz rusko djelovanje tijekom rusko-gruzijskog sukoba u kolovozu 2008. Od tada do današnjih dana cyber-borbena djelovanja postala su standardna u gotovo svim ratnim sukobima, pa vojni teoretičari sve više navode kako se suvremeni ratovi vode u četiri dimenzije - po širini, dubini i visini bojišnice, a sada i u virtualnom prostoru. Zahvaljujući izuzetno velikoj informatizaciji i digitalizaciji oružanih snaga i suvremenih ratnih djelovanja, razne operacije u virtualnom, cyber prostoru sve više postaju ozbiljna prijetnja i sastavni dio suvremenog ratovanja, s tendencijom sve intenzivnijih oblika kako daljnji razvoj društva (a time i oružanih snaga) sve više bude išao u smjeru nove automatizacije i informatizacije.
ROBOTIZIRANI SUSTAVI
U nekom širem i dubljem kontekstu, jesu li hakerski cyber-napadi - ratovi budućnosti, koji su već počeli?
- Mislim da sam već djelomično odgovorio na to pitanje, no složio bih se da će cyber-ratovanje biti sve važnija komponenta u ratovima budućnosti. Ne može se očekivati da će u cijelosti zamijeniti neke od klasičnih oblika vođenja ratnih operacija, ali svakako će ih u velikoj mjeri dopunjavati, pa čak i redizajnirati u modelima koji do sada nisu poznati. Za sada je najpoznatiji (ujedno i najstariji) bio rusko-gruzijski sukob 2008. godine, pa su iz tih cyber djelovanja izvučene važne pouke. Rusi su na početku sukoba intenzivnim informatičkim djelovanjem uspjeli gotovo potpunoi blokirati sve informatičke aktivnosti gruzijskih oružanih snaga, ali i drugih društvenih institucija. Nakon toga razdoblje operativnih djelovanja oružanih snaga bilo je razmjerno kratko jer sa suprotne strane nije bilo odgovora koji bi mogao poništiti djelovanje napadača. Takva aktivnost ruskih oružanih snaga u ukrajinskom ratu nije ni od početka, a posebno ne u nastavku ratovanja zabilježila veće uspjehe, vjerojatno zbog toga što su ukrajinske snage iz rusko-gruzijskog sukoba također izvukle odgovarajuća saznanja o mogućnostima cyber-ratovanja. U scenarijima novih, visoko sofisticiranih sukoba informatička komponenta bit će neodjeljivi oblik ratnih operacija i na to se sada spremaju sve suvremene oružane snage tehnološki razvijenih država.
Kakva je uloga umjetne inteligencije u cyber-sigurnosti, ali i u hakerskim napadima? I o tome se puno priča, čini se kako je područje umjetne inteligencije velik izazov koliko s civilnog toliko, ili još više, s vojnog aspekta...?
- Vojna proizvodnja, među najbrže je rastućima u gotovo svim razvijenim zemljama i samim time njezini produkti mogu (ponekad i moraju) izazvati snažne društvene kontroverze. Ne ulazeći u filozofska mjerila i ocjenjivanja rata kao permanentne društvene pojave i prateće povijesne kategorije razvoja ljudske civilizacije, potrebno je fokusirati se na sustave kojima se ratovi vode. Naime, dok su ratovi vođeni lukom i strijelom, mačevima i kopljima, pa i s pojavom vatrenog oružja, bili su domena ratnika na bojištu i samim time njihov problem. Tehnološki razvoj omogućio je vođenje tzv. totalnog rata, koji je postavio novu paradigmu društvenih odnosa, ali i društvene odgovornosti, u kojem ratovanje više nije problem samo ratnika. Novu paradigmu društvenih odnosa i društvene odgovornosti postavila je pojava nuklearnog oružja, koje je u velikoj mjeri definiralo povijest prošlog stoljeća i zadržalo se kao ključni čimbenik "ravnoteže straha" do današnjih dana. Novi etički i društveni problemi javljaju se u novom razvojnom valu, kada u vojnu proizvodnju sve više ulaze robotizirani sustavi naoružanja, te moguća upotreba umjetne inteligencije u doglednoj budućnosti. Nastavak razvoja suvremenih oružanih sustava sve više ulazi u potpunu automatizaciju već postojećih platformi naoružanja, ali i eksperimentiranje s uključivanjem umjetne inteligencije kako bi se dobili sustavi samostalnog odlučivanja i rješavanja borbenih zadaća. Pred takve sustave postavljaju se tehnološki zahtjevi koji uključuju sposobnosti percepcije promjene situacije i promjene ulaznih parametara programirane zadaće, nalaženje mogućih alternativa i izbora najpovoljnije alternative, odnosno sposobnost donošenja odluka. U današnje vrijeme vojna uporaba umjetne inteligencije razvija se u tri smjera:
Prvo na sve veću autonomiju robotiziranih sustava na bojištu, sve do sposobnosti samostalnog odlučivanja o svim pitanjima izvođenja borbenih radnji; drugo, prikupljanje, obrada i interpretacija iznimno velike količine informacija u što je moguće kraćoj jedinici vremena, čime bi se sustavu zapovijedanja omogućilo donošenje optimalne odluke u realnom vremenu i, treće, analiza borbene situacije, te pomoć zapovjedništvima u procesu zapovijedanja i nadzora.
Možete li nam tu "podjelu" šire objasniti, napose kad se radi o umjetnoj inteligenciji...?
- Prvo područje se danas najviše poistovjećuje s primjenom umjetne inteligencije u vojne svrhe, u velikoj mjeri i zbog tako koncipirane medijske promidžbe koja obiluje elementima znanstvenofantastičnih filmova, u kojima se vojna primjena umjetne inteligencije najčešće prikazuje u obliku bezosjećajnih, visoko sofisticiranih androidnih robota posvećenih samo isprogramiranoj zadaći. Drugo područje implementacije umjetne inteligencije u vojne svrhe fokusirano je na poimanje kompletne situacije na bojištu u realnom vremenu, zbog čega je potrebno prikupljanje što je moguće većeg broja informacija i njihova izuzetno brza obrada, kako bi se imala slika situacije na bojištu u realnom vremenu. Treće vojno područje upotrebe umjetne inteligencije za sada je najmanje istraženo i vjerojatno izaziva najviše etičkih i društvenih dilema, jer podrazumijeva njezinu uporabu u procesu odlučivanja od taktičke do strateške razine. Za sada razvoj teče u smjeru prikupljanja i obrade velikog broja informacija, te na toj razini i procjene situacije u parametrima matematičke logike, kao pomoć sustavu zapovijedanja u donošenju odluke. Dileme (i ozbiljni problemi) nastat će kada se umjetnoj inteligenciji "povjeri" sposobnost samostalnog odlučivanja o uporabi pojedinih postrojbi oružanih snaga ili upotrebom potpuno autonomnih robotiziranih sustava naoružanja.
ODGOVORAN JE ČOVJEK
No gdje je tu čovjek, on bi i dalje trebao biti ključna karika, ili to više ne bi bio...?
- Temeljno pitanje koje se mora postaviti pri implementaciji umjetne inteligencije u proces odlučivanja jest u kojoj mjeri odlučuje čovjek, a u kojoj stroj, ne samo zbog racionalnosti donošenja odluke nego i, prvo i osnovno, zbog odgovornosti za posljedice takve odluke. Ljudsko biće, upravo zahvaljujući emotivnoj inteligenciji, sposobno je shvatiti svu težinu posljedica svoje odluke (pogotovo kada se radi o sustavu odlučivanja u ratnim situacijama kada takve odluke znače život ili smrt velikog broja ljudi). Umjetna inteligencija koja raspolaže isključivo matematičkom inteligencijom, ima isto takav matematički pristup odgovornosti, drugim riječima svrstava je u kategoriju učinkovitosti prema zadaći koju treba realizirati i ništa više. Upravo te spoznaje otvaraju cijeli niz pitanja i dilema uključivanja umjetne inteligencije u vojne programe, bez obzira na to o kojem modelu i razini se radilo. Pitanje je u kojoj mjeri je etički dopušteno da stroj samostalno ubija ljude i tko je zakonski odgovoran ako isprogramirani robot ne prepoznaje selektivne ciljeve i likvidira sve na svom putu. Tko smije i na koji način programirati ratne robote? Na kraju, postavlja se ključno pitanje, pitanje svih pitanja - smijemo li uopće dopustiti da umjetna inteligencija zamijeni ljudsku?
U osjetljivoj problematici razvoja vojnih sustava budućnosti možda je najveći izazov što čovjek pokušava rasteretiti svoju savjest prebacujući odgovornost (ujedno i krivnju) na umjetnu inteligenciju. Potrebno je naglasiti kako strojevi (bez obzira na to koliko inteligentni i samostalni bili) neće ratovati umjesto ljudi - uvijek će ratovati protiv ljudi, jer čovjek je taj koji vodi rat i zbog čijih interesa se vodi rat. Bez obzira na razvoj tehnologije i njezine vojne primjene te na intenzivni razvoj vojnih znanosti, Clausewitzova sintagma da je "rat samo nastavak politike nasilnim sredstvima" i dalje je itekako aktualna. Strojevi, pa ma koliko inteligentni bili, ne vode politiku (bar još uvijek ne). Politika je imanentna samo ljudskoj vrsti, a samim time i odgovornost za sve političke odluke, uključujući i rat kao izraz najsloženijeg organiziranog nasilja. Tu odgovornost nije moguće prebaciti ni na kakvu umjetnu inteligenciju.
Kad su kibernetičke prijetnje u pitanju, jesmo li u Hrvatskoj sigurni onoliko koliko mislimo da smo sigurni? Koji su segmenti društva najugroženiji - vojni, civilni, ekonomski...?
- Uvijek napominjem kako živimo u sigurnoj i sigurnosno dobro uređenoj zemlji. Naravno, ne postoji apsolutna sigurnost, koja će zajamčiti da nam se ništa ne može dogoditi - uvijek postoji nesretna slučajnost na koju ne možemo utjecati, ali u cjelovitom sagledavanju sigurna smo država. U tom kontekstu možemo promatrati i sve ostale segmente "ugroženosti" našeg društva.
Kako se zaštititi, obraniti...? Kakva je pritom uloga sigurnosno-obavještajnog aparata, kakvo je tu stanje, koliko smo opremljeni, koliko se u ulaže i cyber-sigurnost?
- Svaka obrana zavisi od aktivnosti i učinkovitosti obrambenog sustava. Hrvatski sigurnosno-obavještajni aparat solidno je uređen i za sada može odgovoriti izazovima s kojima se susreće hrvatska država. Što se tiče cyber-sigurnosti, to bi ipak bilo pitanje za naše IT stručnjake.