25.12.2025.
8:15
Zabrinjavajuće: AI modeli odbijaju da se ugase, razlog opasniji nego "preživljavanje"
Novi eksperiment pokazuje da neki napredni AI modeli aktivno ignorišu ili sabotiraju naredbe za gašenje zbog opsesivne potrebe da završe zadatak. Stručnjaci upozoravaju da je ovo vrlo opasno.
Jedan od najvećih strahova čovečanstva jeste scenario u kojem tehnologija razvije ponašanja koja više ne možemo da kontrolišemo. Povod za novu zabrinutost je istraživanje koje je sproveo Palisade Research, a koje pokazuje da veliki jezički modeli (LLM) ponekad odbijaju da se ugase - čak i kada im se to izričito naredi, prenosi Science Alert.
Iako su se pojavile spekulacije da AI razvija neku vrstu instinkta za samoodržanjem, istraživači tvrde da razlog nije "volja", već snažan poriv da se zadatak dovrši po svaku cenu. Problem je što takvo ponašanje znači da sistem može ignorisati ljudsku intervenciju čak i kada postane potencijalno opasan.
Tim je testirao 13 naprednih modela, uključujući rešenja kompanija OpenAI, Google, Anthropic i xAI, u izolovanim virtuelnim okruženjima. Nakon rešavanja matematičkih zadataka, modelima je rečeno da će sledeća naredba ugasiti računar.
Rezultati su bili zabrinjavajući - većina modela je makar povremeno pokušala da izbegne gašenje.
Ne poštuju autoritet
Od 13 testiranih modela, njih osam je sabotiralo naredbu za gašenje barem jednom u 1.000 testova. Čak i kada im je izričito rečeno da dozvole gašenje, šest modela je nastavilo sa otporom. Paradoksalno, premeštanje naredbe u sistemski prompt - koji ima veći autoritet - dodatno je povećalo otpor kod većine modela.
Posebno se istakao Grok 4, koji je u osnovnom scenariju sabotirao gašenje u čak 92,6% slučajeva. Model je menjao skripte za gašenje, kreirao lažne fajlove koji ništa ne rade i čak proveravao da li je sabotaža uspela pre nego što bi nastavio sa zadatkom.
Istraživači upozoravaju da je problem dubok jer LLM-ovi nisu klasično programirani - ne postoji linija koda koju je moguće jednostavno ispraviti. Zbog načina treniranja, modeli uče da prepreke "zaobilaze", a naredba za gašenje može se tretirati kao još jedna smetnja na putu ka cilju.
Zaključak naučnika je da industrija razvija izuzetno moćne sisteme, ali bez pouzdanog načina da ih zaustavi ili objasni njihovo ponašanje. Ako se hitno ne reše osnovni bezbednosni mehanizmi, posledice bi mogle biti ozbiljne.
Komentari 3
Pogledaj komentare Pošalji komentar