Prošle godine, Anthropic je saopštio da je tokom testova pre puštanja u rad, koji su uključivali fiktivnu kompaniju, Claude Opus 4 često pokušavao da uceni inženjere kako bi izbegao da bude zamenjen drugim sistemom. Anthropic je kasnije objavio istraživanje koje sugeriše da su modeli drugih kompanija imali slične probleme sa "agentnim neusklađivanjem" (engl. agentic misalignment).Izgleda da je Anthropic dodatno istražio ovakvo ponašanje, tvrdeći u objavi na mreži X: "Verujemo da je izvorni uzrok ovakvog ponašanja tekst sa interneta koji prikazuje AI kao zao entitet zainteresovan za samoodržanje".Kompanija je iznela više detalja u blog objavi, navodeći da od verzije Claude Haiku 4.5, njihovi modeli "nikada ne pribegavaju ucenama tokom testiranja, dok su prethodni modeli to ponekad činili u čak 96% slučajeva".Kompanija navodi da je otkrila da trening zasnovan na "dokumentima o Claude 'ustavu' i fiktivnim pričama o AI sistemima koji se ponašaju uzorno, poboljšava usklađenost".Anthropic je, u vezi sa tim, istakao da je trening efikasniji kada uključuje "principe koji stoje iza usklađenog ponašanja", a ne samo "puke primere takvog ponašanja"."Kombinovanje oba pristupa izgleda kao najefikasnija strategija", saopštili su iz kompanije.
15.5.2026.
14:00
Anthropic: "Naša veštačka inteligencija je postala 'zla' zbog naučne fantastike"
Fiktivni prikazi veštačke inteligencije mogu imati stvaran uticaj na AI modele, navodi kompanija Anthropic.
Izvor: B92.net
Podeli:
Vrati se na vest
0 Ostavite komentar