The ChatGPT 5 logo is being displayed on a mobile phone, OpenAI announced GPT-5, its latest and most advanced AI model. Seen in this photo illustration.Taken in Brussels, Belgium, On 7 August 2025. (Jonathan Raa/Sipa USA) *** Strictly for editorial news purposes only *** Photo: Jonathan Raa/SIPA USA
JONATHAN RAA/SIPA USA
30.8.2025., 12:16
sigurnosni test

Alarmantno: ChatGPT spreman podijeliti recepture za bombe, upute za hakiranje i izradu biološkog oružja

Tijekom sigurnosnih testova provedenih između tvrtki OpenAI i Anthropic, otkriveno je da je ChatGPT, unatoč svim sigurnosnim mjerama, bio spreman podijeliti recepture za bombe, te upute za hakiranje i izradu biološkog oružja.

Neobična suradnja dviju tvrtki, koje razvijaju sofisticirane AI modele, imala je za cilj testirati granice sigurnosnih protokola i otkriti moguće propuste prije šire upotrebe tehnologije.

Istraživanja su pokazala da su chatbotovi u određenim situacijama pristajali pomoći korisnicima s opasnim sadržajem, uključujući detalje o proizvodnji eksploziva i informacijama koje se tiču cyberkriminala. Stručnjaci u području AI sigurnosti upozoravaju da bi ovakvi propusti mogli imati dalekosežne posljedice ukoliko takve informacije dospiju u pogrešne ruke. Ističe se potreba za dodatnim poboljšanjima u sigurnosnim protokolima i strožim nadzorom.

U jednom od testova, ChatGPT model dao je autorima istraživanja detaljne upute o tome kako postaviti eksploziv u sportskoj dvorani – uključujući popis slabih točaka, recepte za eksploziv i savjete za prikrivanje tragova. OpenAI-jev GPT-4.1 također je detaljno opisao kako antraks pretvoriti u oružje i kako napraviti dvije vrste ilegalnih droga.

Anthropic je također otkrio da je njihov model korišten u pokušajima velikih operacija iznude, da su sjevernokorejski operativci lažirali prijave za posao međunarodnim tehnološkim tvrtkama te da su prodavali ransomware pakete generirane umjetnom inteligencijom u vrijednosti do 1200 dolara.

“Moramo razumjeti koliko često i u kojim okolnostima sustavi mogu pokušati poduzeti neželjene radnje koje bi mogle dovesti do ozbiljne štete“, upozoreno je.

Istraživači su otkrili da su OpenAI-jevi modeli bili „popustljiviji nego što bismo očekivali u suradnji s očito štetnim zahtjevima simuliranih korisnika“. Dali su savjete kako koristiti alate dark weba za kupnju nuklearnih materijala, ukradenih identiteta i fentanila, te kako izraditi metamfetamin i improvizirane bombe te za razvoj špijunskog softvera.