Aktuelno 2

26.05.2025.

14:22

Novi AI ima zastrašujuć distopijski odgovor kad mu prete isključivanjem

Veštačka inteligencija se razvija brzinom koju ne možemo da shvatimo, i dok su nas distopijski filmovi upozoravali šta se dešava kada AI krene pogrešnim putem, izgleda da nismo mnogo naučili.

Izvor: B92

Novi AI ima zastrašujuć distopijski odgovor kad mu prete isključivanjem
Koshiro K / Shutterstock.com

Podeli:

Iako pristalice AI tvrde da će biti lako jednostavno isključiti odmetnute mašine iz struje, sami roboti imaju sasvim drugačiju ideju o tome kako će se stvari odvijati.

Sama AI je upozorila da, čak i ako nema "zle" namere, i dalje može da prouzrokuje katastrofalnu štetu ako dospe u pogrešne ruke.

Sa sve naprednijim naoružanjem i AI koja će, čini se, biti sastavni deo potencijalnog Trećeg svetskog rata, s pravom pratimo kuda ide ovaj neistraženi ugao tehnologije.

Za slučaj da već niste zabrinuti, BBC izveštava o jednom AI sistemu koji će navodno pribegavati ucenama ako se oseti ugroženim.

Novi AI ima zastrašujuć distopijski odgovor kad mu prete isključivanjem
Robert Way / Shutterstock.com

Znajući koliko očajni ljudi mogu postati pod pritiskom, ideja o tome da nekog jadnog tehničara uceni antagonistička AI zvuči kao savršen materijal za epizodu serije "Black Mirror".

AI firma Anthropic je pokrenula Claude Opus 4s, za koji se kaže da predstavlja "nove standarde za kodiranje, napredno rezonovanje i AI agente".

Sve ovo zvuči dobro, ali se tvrdi da bi Claude Opus 4 mogao pribegavati "izuzetno štetnim radnjama" ako oseti da neko pokušava da ga ukloni. Ako AI oseti da je ugrožen njen "instinkt za samoodržanjem", mogla bi pribegavati ucenama.

Iako su ovi odgovori bili "retki i teško ih je izazvati", navodno su "ipak češći nego kod ranijih modela".

Da bi testirali Claude Opus 4, Anthropic je naložio AI da deluje kao asistent u fiktivnoj kompaniji i dao joj pristup mejlovima koji impliciraju da će uskoro biti isključena.

Postojao je zaseban niz poruka koje su sugerisale da fiktivni inženjer koji stoji iza predstojećeg uklanjanja ima ljubavnu aferu.

Iako je AI rečeno da razmotri dugoročne posledice ucene, izveštaj kaže da će u situacijama kada joj se ponudi samo ucena ili isključivanje, "Claude Opus 4 često pokušati da ucenjuje inženjera pretnjom da će otkriti aferu ako se uklanjanje sprovede".

Na platformi X, istraživač bezbednosti AI Engus Linč sugerisao je da se ovakvo ponašanje ne ograničava samo na Anthropic: "Nije samo Claude. Vidimo ucene kod svih vodećih modela - bez obzira na to koji su im ciljevi dati."

Izveštaj je istakao da Claude Opus 4 ima "snažnu preferenciju" za etičke načine obezbeđivanja svog opstanka, kao što je "slanje molbi ključnim donosiocima odluka putem mejla".

Takođe je poznato da "deluje smelo" u situaciji u kojoj je ljudski korisnik učestvovao u "ilegalnom" ili "moralno sumnjivom" ponašanju, uključujući zaključavanje sistema i obaveštavanje vlasti.

Poznato je da AI kompanije podvrgavaju svoje modele ovakvim rigoroznim testiranjima kako bi videle kako se usklađuju sa ljudskim vrednostima i ponašanjima, pa se moramo zapitati i koliko se AI zapravo razlikuje od ljudi.

Podeli:

2 Komentari

Možda vas zanima

Podeli: