15.05.2026.
14:00
Anthropic: "Naša veštačka inteligencija je postala 'zla' zbog naučne fantastike"
Fiktivni prikazi veštačke inteligencije mogu imati stvaran uticaj na AI modele, navodi kompanija Anthropic.
Prošle godine, Anthropic je saopštio da je tokom testova pre puštanja u rad, koji su uključivali fiktivnu kompaniju, Claude Opus 4 često pokušavao da uceni inženjere kako bi izbegao da bude zamenjen drugim sistemom. Anthropic je kasnije objavio istraživanje koje sugeriše da su modeli drugih kompanija imali slične probleme sa "agentnim neusklađivanjem" (engl. agentic misalignment).
Izgleda da je Anthropic dodatno istražio ovakvo ponašanje, tvrdeći u objavi na mreži X: "Verujemo da je izvorni uzrok ovakvog ponašanja tekst sa interneta koji prikazuje AI kao zao entitet zainteresovan za samoodržanje".
Možda vas zanima
Pao dogovor od 200 milijardi dolara: Google "ubire plodove", a evo ko plaća frapantnu sumu
Tehnološki gigant Google i AI startap Anthropic sklopili su jedan od najvećih ugovora u istoriji industrije.
22:43
7.5.2026.
7 d
Pentagon ih "precrtao" jer predstavljaju rizik
Iz velikog broka ugovora izostavljen je Anthropic, koji je ministarstvo prethodno koristilo za rukovanje poverljivim informacijama.
11:00
4.5.2026.
11 d
Kompanija navodi da je otkrila da trening zasnovan na "dokumentima o Claude 'ustavu' i fiktivnim pričama o AI sistemima koji se ponašaju uzorno, poboljšava usklađenost".
Anthropic je, u vezi sa tim, istakao da je trening efikasniji kada uključuje "principe koji stoje iza usklađenog ponašanja", a ne samo "puke primere takvog ponašanja".
"Kombinovanje oba pristupa izgleda kao najefikasnija strategija", saopštili su iz kompanije.
Komentari 0
Pogledaj komentare Pošalji komentar