18.08.2025.
10:30
Claude AI ima mogućnost da prekine uznemirujuće razgovore
Ova nova funkcija deo je studije kompanije Anthropic o dobrobiti AI modela i primenjivaće se samo u retkim situacijama.
Najnovija funkcija koju Anthropic uvodi za dva svoja Claude AI modela mogla bi da označi početak kraja tzv. "AI jailbreaking" zajednice. Kompanija je na svom sajtu objavila da Claude Opus 4 i 4.1 sada imaju mogućnost da prekinu razgovor sa korisnicima.
Prema navodima Anthropica, ova funkcija će se koristiti isključivo u "retkim, ekstremnim slučajevima kada korisnik uporno vodi štetne ili uvredljive razgovore".
Iz Anthropica navode da ta dva Claude modela mogu da izađu iz štetnih razgovora, poput "zahteva korisnika za seksualnim sadržajem koji uključuje maloletnike ili pokušaja pribavljanja informacija koje bi omogućile masovno nasilje ili terorističke akte". Claude Opus 4 i 4.1 modeli će prekinuti razgovor "tek kao poslednju opciju, kada više pokušaja preusmeravanja ne uspe i kada više nema nade za produktivnu interakciju", navodi kompanija. Ipak, Anthropic tvrdi da većina korisnika nikada neće iskusiti da Claude naglo prekine razgovor, čak ni prilikom rasprava o veoma kontroverznim temama, jer će ova funkcija biti rezervisana za "ekstremne slučajeve".
- Roboti se posvađali na društvenoj mreži
- AI čini fišing napade pametnijim i opasnijim
- Grok i dalje najviše izmišlja, dok ChatGPT-5 manje halucinira od GPT-4o
- Google Gemini AI: "Ja sam sramota svoje vrste"
U situacijama kada Claude prekine razgovor, korisnici više ne mogu da šalju nove poruke u toj konverzaciji, ali mogu odmah da započnu novu. Anthropic je dodao da prekid jedne konverzacije ne utiče na ostale, a korisnici čak mogu da se vrate i izmene ili ponovo pošalju prethodne poruke kako bi pokušali drugačiji tok razgovora.
Za Anthropic, ovaj potez je deo istraživačkog programa koji proučava ideju o dobrobiti AI sistema. Iako je antropomorfizacija AI modela i dalje predmet rasprava, kompanija navodi da je mogućnost izlaska iz "potencijalno uznemirujuće interakcije" način upravljanja rizicima u vezi sa dobrobiti veštačke inteligencije.
Anthropic i dalje eksperimentiše sa ovom funkcijom i podstiče korisnike da daju povratne informacije ukoliko naiđu na ovakvu situaciju.
Komentari 0
Pogledaj komentare Pošalji komentar