Aktuelno 3

25.12.2025.

8:15

Zabrinjavajuće: AI modeli odbijaju da se ugase, razlog opasniji nego "preživljavanje"

Novi eksperiment pokazuje da neki napredni AI modeli aktivno ignorišu ili sabotiraju naredbe za gašenje zbog opsesivne potrebe da završe zadatak. Stručnjaci upozoravaju da je ovo vrlo opasno.

Izvor: Science Alert

Zabrinjavajuće: AI modeli odbijaju da se ugase, razlog opasniji nego "preživljavanje"
Profimedia

Podeli:

Jedan od najvećih strahova čovečanstva jeste scenario u kojem tehnologija razvije ponašanja koja više ne možemo da kontrolišemo. Povod za novu zabrinutost je istraživanje koje je sproveo Palisade Research, a koje pokazuje da veliki jezički modeli (LLM) ponekad odbijaju da se ugase - čak i kada im se to izričito naredi, prenosi Science Alert.

Iako su se pojavile spekulacije da AI razvija neku vrstu instinkta za samoodržanjem, istraživači tvrde da razlog nije "volja", već snažan poriv da se zadatak dovrši po svaku cenu. Problem je što takvo ponašanje znači da sistem može ignorisati ljudsku intervenciju čak i kada postane potencijalno opasan.

Zabrinjavajuće: AI modeli odbijaju da se ugase, razlog opasniji nego preživljavanje
Summit Art Creations / Shutterstock.com

Tim je testirao 13 naprednih modela, uključujući rešenja kompanija OpenAI, Google, Anthropic i xAI, u izolovanim virtuelnim okruženjima. Nakon rešavanja matematičkih zadataka, modelima je rečeno da će sledeća naredba ugasiti računar.

Rezultati su bili zabrinjavajući - većina modela je makar povremeno pokušala da izbegne gašenje.

Ne poštuju autoritet

Od 13 testiranih modela, njih osam je sabotiralo naredbu za gašenje barem jednom u 1.000 testova. Čak i kada im je izričito rečeno da dozvole gašenje, šest modela je nastavilo sa otporom. Paradoksalno, premeštanje naredbe u sistemski prompt - koji ima veći autoritet - dodatno je povećalo otpor kod većine modela.

Posebno se istakao Grok 4, koji je u osnovnom scenariju sabotirao gašenje u čak 92,6% slučajeva. Model je menjao skripte za gašenje, kreirao lažne fajlove koji ništa ne rade i čak proveravao da li je sabotaža uspela pre nego što bi nastavio sa zadatkom.

Zabrinjavajuće: AI modeli odbijaju da se ugase, razlog opasniji nego preživljavanje
Ascannio / Shutterstock.com

Istraživači upozoravaju da je problem dubok jer LLM-ovi nisu klasično programirani - ne postoji linija koda koju je moguće jednostavno ispraviti. Zbog načina treniranja, modeli uče da prepreke "zaobilaze", a naredba za gašenje može se tretirati kao još jedna smetnja na putu ka cilju.

Zaključak naučnika je da industrija razvija izuzetno moćne sisteme, ali bez pouzdanog načina da ih zaustavi ili objasni njihovo ponašanje. Ako se hitno ne reše osnovni bezbednosni mehanizmi, posledice bi mogle biti ozbiljne.

Podeli:

3 Komentari

Možda vas zanima

Svet

Zelenski: Gotov je

Osnovni paket nacrta dokumenata u okviru mirovnog plana za kraj rata u Ukrajini je gotov, izjavio je danas predsednik Ukrajine Volodimir Zelenski, navodeći da je pripremljeno ukupno 20 tačaka mirovnog plana.

19:27

22.12.2025.

2 d

Podeli: