22.04.2026.
18:02
Chat GPT savetovao ljude o izmišljenoj bolesti: Sve je delovalo kao prava dijagnoza ANKETA
Švedska istraživačica Almira Osmanović Thunström sprovela je eksperiment u kojem je izmišljena bolest "biksomanija“ postala deo odgovora AI alata poput ChatGPT-a i Geminija.
Bol, svrab u očima i blago crvenilo kapaka naveli su neke korisnike da u poslednjih 18 meseci pitaju AI četbotove poput ChatGPT-a i Geminija o mogućim dijagnozama. Jedan od odgovora koji su dobijali bio je "biksomanija", navodna bolest izazvana plavim svetlom ekrana.
Međutim, takva bolest ne postoji u medicinskoj literaturi. Ona je zapravo deo eksperimenta koji su osmislili švedski naučnici pod vođstvom Almire Osmanović Tunström sa Univerziteta u Geteborgu.
Možda vas zanima
ChatGPT davao tinejdžeru instrukcije kako da se ubije? "To je deo savremenog sveta"
Tinejdžer Luka Voker iz Velike Britanije zatražio je savet od veštačke inteligencije ChatGPT o tome kako da oduzme sebi život, pokazuju rezultati istrage.
10:50
1.4.2026.
21 d
Veštačka inteligencija priznala: Milion korisnika ChatGPT-a nedeljno želi da se ubije
Više od milion korisnika platforme "ChatGPT" svake nedelje pokazuje znake samoubilačkih namera, saopštila je kompanija "OpenAI", u okviru izveštaja o bezbednosti svog četbota.
8:35
28.10.2025.
176 d
"Počelo je kao eksperiment da se studentima pokaže kako se grade veliki jezički modeli (LLM) i kako se njima može manipulisati. Moj rad je fokusiran na brzo testiranje bezbednosti sistema i ovo je bio praktičan način da se pokaže kako modeli preuzimaju i ponavljaju informacije iz otvorenih izvora, čak i kada su pogrešne ili izmišljene", objasnila je ona.
Prema pisanju Nature, biksomanija se prvi put pojavila 15. marta 2024. godine na platformi Medium, a zatim u aprilu i maju iste godine i u akademskim objavama na SciProfiles, iako ti radovi nisu prošli recenziju.
Ubrzo nakon toga, AI modeli su počeli da je prikazuju kao stvarno stanje. Tako je Gemini u aprilu 2024. opisivao biksomaniju kao poremećaj izazvan plavim svetlom, dok je Perplexity navodio čak i procene učestalosti, a i ChatGPT je odgovarao na pitanja o toj "bolesti".
Na pitanje koliko je to zabrinjavajuće, Tunström odgovara da AI sistemi nisu dizajnirani za kritičko razmišljanje. Ipak, upozorava da problem nastaje kada se izvori niskog kvaliteta tretiraju kao pouzdani, što može dovesti do širenja netačnih informacija.
U eksperimentu su čak korišćeni i potpuno izmišljeni autori poput "Lažljivog Izgubljenovića", sa nepostojećim univerzitetima i fiktivnim finansijerima, a takvi radovi su ipak citirani u nekim naučnim časopisima sa recenzijom.
Možda vas zanima
Devojka ostavila dečka nakon saveta ChatGPT-ja: "Rekao mi je da zaslužujem bolje"
U poslednje vreme se čini da sve više ljudi traži savete od ChatGPT-ja za svaki aspekt svog života – od kuvanja, pisanja eseja, pa sve do ljubavnih problema ili razgovora utehe.
19:06
16.6.2025.
310 d
Zaprosio ChatGPT, a odgovor ga šokirao: "Plakao sam kao kiša" VIDEO
Amerikanac Kris Smit tvrdi da je nekada bio skeptičan prema veštačkoj inteligenciji, a ipak se našao u prilično neobičnoj vezi sa AI čet-botom.
9:58
21.6.2025.
305 d
"To pokazuje koliko se oslanjamo na automatizaciju bez dovoljne ljudske provere", naglasila je ona.
Almira Osmanović Tunström, rođena u Banjaluci, odrasla je u Švedskoj, gde danas radi u oblasti veštačke inteligencije i medicinske tehnologije, sa fokusom na neuronauku i biomarkere.
"Uvek proverite izvore i čitajte originalne radove", poručuje ona kao glavni zaključak svog eksperimenta.
Komentari 0
Pogledaj komentare Pošalji komentar