Aktuelno 3

06.05.2025.

15:30

Šef Anthropica: Niko ne zna kako AI stvarno funkcioniše

Na svom ličnom blogu, prvi čovek jedne od najznačajnijih AI kompanija današnjice, otvoreno je priznao da je svet prvi put suočen s tehnologijom za koju niko nije siguran kako "iznutra" funkcioniše.

Izvor: Bug

Šef Anthropica: Niko ne zna kako AI stvarno funkcioniše
Summit Art Creations / Shutterstock.com

Podeli:

Dario Amodei je američki istraživač veštačke inteligencije, poduzetnik i osnivač AI kompanije Anthropic, koja stoji iza chatbota Claude i prikupila je više milijardi dolara ulaganja fondova rizičnog kapitala. 

Uprkos činjenici da se tom tehnologijom bavi više od decenije, od kada je ona od marginalne postala glavna ekonomska i geopolitička tema na svetu, Amodei priznaje – ni on sam, a ni bilo ko drugi, ne zna tačno kako ta tehnologija "iznutra" zapravo funkcioniše.

"Ne možemo da zaustavimo autobus"

"Njen napredak je neumoljiv, premoćan i prebrz da bi se zaustavio, ali ipak nešto možemo da uradimo", smatra šef Anthropica. Redosled kojim se stvari grade, aplikacije koje biramo i detalji o tome kako se one uvode u društvo, to je nešto na čemu možemo da radimo i zbog čega AI može da ima veliki pozitivan uticaj. "Ne možemo da zaustavimo autobus, ali možemo njime da upravljamo", kaže.

"Ljudi izvan tog područja često su iznenađeni i uznemireni kada saznaju da ne razumemo kako funkcionišu naše sopstvene kreacije veštačke inteligencije. Imaju pravo da budu zabrinuti: ovaj nedostatak razumevanja je u suštini bez presedana u istoriji tehnologije", ističe Amodei u veoma iskrenom eseju o veštačkoj inteligenciji. Dodaje i da je većina rizika unutar te tehnologije povezana upravo s netransparentnošću njenog načina rada, što bi bilo daleko lakše rešiti da su modeli "razumljivi". Ali oni to nisu, pa nam je teško uopšte i da znamo koliko su opasni.

Bitna je mogućnost interpretiranja

Zbog načina rada "crne kutije" mi zapravo ne možemo da efikasno predvidimo, sprečimo ili objasnimo potencijalno štetna, neusklađena ili obmanjujuća ponašanja modela, što predstavlja ozbiljan rizik za bezbednost i pouzdanost AI sistema. Amodei zato kaže da je razvoj interpretabilnosti (odnosno sposobnosti razumevanja unutrašnjih procesa samih modela) postao hitan prioritet. Prema njemu, samo interpretabilni AI sistemi mogu da omoguće pravovremeno otkrivanje problema, izgradnju poverenja, bezbednu primenu u kritičnim područjima i pružanje regulatorima i korisnicima potrebnu transparentnost.

"Neprihvatljivo je da čovečanstvo ostane potpuno neupućeno u to kako napredni AI sistemi donose odluke", poručuje šef jedne od najjačih AI kompanija, pa zaključuje da je za postizanje interpretabilnosti potrebna veoma široka saradnja naučne zajednice, industrije i zakonodavaca, ali i ulaganja u nove metode, standarde i infrastrukturu koji bi pomogli razumevanje AI "iznutra".

Podeli:

3 Komentari

Možda vas zanima

Podeli: