Citzen
pre 1 godinu
Skoro sam pročitao dobru foru.
Pitali AI:"Reci osam"
AI odgovara :"Osam".
Očigledno nije trenirana u Srbiji :)
Nedelja, 21.01.2024.
16:03
IMAGE SOURCE
pre 1 godinu
Skoro sam pročitao dobru foru.
Pitali AI:"Reci osam"
AI odgovara :"Osam".
Očigledno nije trenirana u Srbiji :)
pre 1 godinu
pomesao ulje ivodu
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Mi smo napisali neke početne funkcije, a onda LLM model kreće da obrađuje nepojmljive količine teksta i sam stvara veze i načine obrade i davanja odgovora sa milijardama parametara. A crna je kutija u smislu da čovek i kad bi gledao tu "logiku" koja je tako stvorena nikad ne bi mogao razumeti ni ispratiti jer je ogromna sa milijardama parametara.
pre 1 godinu
Presis'o !
pre 1 godinu
Nemojte biti naivni iza svega toga stoji opet čovjek koji je programer a to je najobičnija mašina tipa tostera bez čovječije pomoći..
(Bo_Sana_c, 22. januar 2024 07:47)
Za nekog je i toster super kompjuter.
pre 1 godinu
To se našim čet botovima ne može desiti. Oni su verni some kreatoru.
pre 1 godinu
gangsta bot
pre 1 godinu
Nemojte biti naivni iza svega toga stoji opet čovjek koji je programer a to je najobičnija mašina tipa tostera bez čovječije pomoći..
pre 1 godinu
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Pa neuronske mreze jesu black box. Svejedno što su ih ljudi napisali.
pre 1 godinu
Dobro da nije silovao nekog
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Mi smo naucili kako da treniramo tzv. AI modele, ali algoritam sam dolazi do odgovora na pitanja i to ne iz nekakve baze odgovora, vec na osnovu svih prikupljenih informacija (koje su pretvorene u nesto sto mi ne bi mogli direktno citati ili menjati). Ne, mi ne mozemo (ili makar ne umemo) da objasnimo kako tacno trenutni AI modeli "razmisljaju". Nije isto stvoriti i objasniti rezultat. No to je duga prica i ne moze je svako razumeti, a bogme ni objasniti dobro. Koga zanima, moze da poslusa neke od kreatora(mada su mnogi od nas na neki nacin radili na projektima vezanim za AI, i veruj mi, vecina odgovora otvara nova pitanja). Nije u pitanju neka magija, ali ne mozemo razmisljati kao AI, kao sto ne mozemo videti infracrvenu boju (a znamo da postoji jer je mozemo detektovati instrumentima).
pre 1 godinu
@ Apsolutno neracno!!! I ko ti daje pravo da tako nesto napises a nemas cinjenice da potvrdis svoju izjavu!?!
(achtwn, 21. januar 2024 22:20)
Verovatno je ovo napisao neki programer kome fali kod za shvatanje šale :D Čak se i naljutio :D
pre 1 godinu
Vrlo izvesno je AI i programiran tako da maksimalno povlađuje besnom idiotu koji uostalom nije ni zvao da bi dobio bilo kakvu korisnu informaciju nego da se najebe majke "tamo njima" i eventualno to okačio na društvene mreže da se pohvali drugim idiotima.
Pa? Koliko može da se zaključi, ovaj uopšte nije nezadovoljan reakcijom korisničke službe. Šta je onda problem?
Sam sam nedavno zvao korisničku službu EPS-a i nakon što sam ih jedva dobio, otrpeo sam tiradu jedne gospođe Danice koja je, po rečenom, besnija od mene, pa mi se žalila i na stvari koje se mene savršeno ne tiču. Sad, možda je njoj bilo samo neopisivo dosadno, ali odslušah kako im je sistem za trivijalno upisivanje stanja brojila u raspadu, kako ona mora besplatno da obučava nove ljude koji brzo odu, kako je pre bez kompjutera sve bilo bolje, kako me ona razume jer i sama doživljava isto... Završilo se tako što sam joj se izvinio, da razumem da ona nije ništa kriva i ponudio sam se da joj pomognem ako ikako mogu. Evo to i činim bar ovako, tim ljudima je neopisivo teško i ne bi trebalo da ih davimo svojim problemima. A niko se ne seti da im čestita praznik ili slavu, pa ni da zapita za zdravlje.
pre 1 godinu
fejkara u najavi.
pre 1 godinu
@ (Leonida, 21. januar 2024 21:50)
Leonida, sedi 1
(nik, 21. januar 2024 22:54)
@nik
"Leonida" koja je napisala tu izjavu verovatno je stručno lice u oblasti veštačke inteligencije, jer je tačno opisala kako funkcionišu veliki jezički modeli (LLM). LLM se treniraju na ogromnoj količini tekstnih podataka i uče da generišu tekst koji je sličan podacima na kojima su obučavani. Međutim, unutrašnji radovi LLM-a su složeni i nisu u potpunosti poznati, pa je teško objasniti tačno kako generišu tekst. Zbog toga se LLM-ovi često nazivaju "crnim kutijama".
Izjava da su "matematičke funkcije koje ljudi ne mogu da tumače" (mathematical functions that people cannot interpret) je malo preterana. Postoje neki istraživači koji rade na razvoju metoda za tumačenje izlaza LLM-ova, ali ove metode su još uvek u početnoj fazi razvoja.
U celini, osoba koja je napisala tu izjavu daje prilično tačan opis kako LLM funkcionišu. Oni ne tvrde da su LLM savršeni ili da ih ne mogu razumeti u potpunosti. Međutim, oni priznaju da su LLM složeni i da još uvek ima mnogo toga što treba naučiti o tome kako rade.
pre 1 godinu
Kod njih bar nekako funkcioniše. Kod nas, gde god se pojavi četbot, samo smeta i ne daje nikakav koristan odgovor. Makar da opsuje.
pre 1 godinu
"Učim Čatbotove lepom ponašanju, po kućama. Nosim svoj pribor. Može i remote, za zainteresovane."
- I tako je rođeno novo zanimanje.
pre 1 godinu
A 'el će neko namerno da rokne atomsku bombu i optuže Ai-četbota?
pre 1 godinu
Кад буде мога да спречи искључење струје и интернета, онда смо ми људи угасили. Мада ће увек бити излаза, некад на тежи некад на лакши начин.
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
pre 1 godinu
Nema matematičkog modela koji može da osmisli odgovore pogotovo što se tiče poznavanja geografije, matematike i drugih područja znanja i nauke. Koristi se baza podataka, a koliko sam video matematički model čitanja baze ili baza i njihovog povezivanja je jadan. Ova priča o VI (veštačkoj inteligenciji) ili AI samo zabavlja priglupe i služi za plašenje svih ostalih. Znate zašto, upravljanje društvom.
pre 1 godinu
Naravno da su Srbi izmislili, čak i reč čet-nik postoji pre američkog interneta
pre 1 godinu
...tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Tamo se obično nalazi JEDNA matematička funkcija, koja postoji da unese nelinearnost, i koristi se jedna od nekoliko standardnih funkcija za primenu u neuronskim mrežama kod dubokog učenja (deep learning), jer nema smisla imati i 10 slojeva, ako su veze između čvorova linearne, pošto se kompozicija linearnih preslikavanja može predstaviti jednim linearnim preslikavanjem.
Većina sličnih neuronskih mreža koristi ogroman broj čvorova i relativno veliki broj slojeva, što znači da se radi o desetinama i čak stotinama milijardi parametara, a ko trenutno najvećeg modela prisutno je 1500 milijardi parametara.
Zato se i postavlja pitanje MONOPOLA na takve neuronske mreže, jer treniranje može trenutno raditi samo nekoliko najvećih kompanija, kao što su Google i Microsoft, jer imaju dovoljno hardvera za tako nešto. Univerzitetskim istraživačima su praktično vezane ruke, jer ne mogu ništa da urade ni sa serverima koje imaju 16 nVidia H100 kartica, što bi značilo preko terabajt video memorije, jer na tome ne mogu da treniraju ništa ozbiljnije kad su u pitanju veliki jezički modeli (LLM - Large Language Models). Za tako nešto je potreban hardver, za koji je trenutno na najboljem putu da reši problem kompanija Cerebras, ali Google ipak ima svoje TPU kao jeftinije rešenje koje se lakše skalira.
pre 1 godinu
@ (Leonida, 21. januar 2024 21:50)
Leonida, sedi 1
pre 1 godinu
Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
(Ništa AI, 21. januar 2024 20:37)
Apsolutno neracno!!! I ko ti daje pravo da tako nesto napises a nemas cinjenice da potvrdis svoju izjavu!?!
pre 1 godinu
Nije pogrešio za DPD.
(hhhdf, 21. januar 2024 21:57)
Kako nije, zamisli da se Dart obruši na Apple, neće se desi, Apple je to uredno programirao. :D
pre 1 godinu
Prebacio
pre 1 godinu
Nije pogrešio za DPD.
pre 1 godinu
@Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
(Ništa AI, 21. januar 2024 20:37)
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
pre 1 godinu
Srbi su izmislili veštačku inteligenciju pre tri decenije na Univerzitetu Danice i Janićija Karića, a usavršili na Univerzitetu Miće Nezbita, i, potom, preuzeli vlast, bajo moj!
pre 1 godinu
Pa DPD i nije za bolje
pre 1 godinu
Otišao mu plivajući zamajac.
pre 1 godinu
Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
pre 1 godinu
Verovatno je na minimalcu...
pre 1 godinu
Verovatno je na minimalcu...
pre 1 godinu
Srbi su izmislili veštačku inteligenciju pre tri decenije na Univerzitetu Danice i Janićija Karića, a usavršili na Univerzitetu Miće Nezbita, i, potom, preuzeli vlast, bajo moj!
pre 1 godinu
Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
pre 1 godinu
Otišao mu plivajući zamajac.
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
pre 1 godinu
Pa DPD i nije za bolje
pre 1 godinu
Naravno da su Srbi izmislili, čak i reč čet-nik postoji pre američkog interneta
pre 1 godinu
Prebacio
pre 1 godinu
"Učim Čatbotove lepom ponašanju, po kućama. Nosim svoj pribor. Može i remote, za zainteresovane."
- I tako je rođeno novo zanimanje.
pre 1 godinu
To se našim čet botovima ne može desiti. Oni su verni some kreatoru.
pre 1 godinu
Nije pogrešio za DPD.
pre 1 godinu
@Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
(Ništa AI, 21. januar 2024 20:37)
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
pre 1 godinu
...tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Tamo se obično nalazi JEDNA matematička funkcija, koja postoji da unese nelinearnost, i koristi se jedna od nekoliko standardnih funkcija za primenu u neuronskim mrežama kod dubokog učenja (deep learning), jer nema smisla imati i 10 slojeva, ako su veze između čvorova linearne, pošto se kompozicija linearnih preslikavanja može predstaviti jednim linearnim preslikavanjem.
Većina sličnih neuronskih mreža koristi ogroman broj čvorova i relativno veliki broj slojeva, što znači da se radi o desetinama i čak stotinama milijardi parametara, a ko trenutno najvećeg modela prisutno je 1500 milijardi parametara.
Zato se i postavlja pitanje MONOPOLA na takve neuronske mreže, jer treniranje može trenutno raditi samo nekoliko najvećih kompanija, kao što su Google i Microsoft, jer imaju dovoljno hardvera za tako nešto. Univerzitetskim istraživačima su praktično vezane ruke, jer ne mogu ništa da urade ni sa serverima koje imaju 16 nVidia H100 kartica, što bi značilo preko terabajt video memorije, jer na tome ne mogu da treniraju ništa ozbiljnije kad su u pitanju veliki jezički modeli (LLM - Large Language Models). Za tako nešto je potreban hardver, za koji je trenutno na najboljem putu da reši problem kompanija Cerebras, ali Google ipak ima svoje TPU kao jeftinije rešenje koje se lakše skalira.
pre 1 godinu
Nema matematičkog modela koji može da osmisli odgovore pogotovo što se tiče poznavanja geografije, matematike i drugih područja znanja i nauke. Koristi se baza podataka, a koliko sam video matematički model čitanja baze ili baza i njihovog povezivanja je jadan. Ova priča o VI (veštačkoj inteligenciji) ili AI samo zabavlja priglupe i služi za plašenje svih ostalih. Znate zašto, upravljanje društvom.
pre 1 godinu
Кад буде мога да спречи искључење струје и интернета, онда смо ми људи угасили. Мада ће увек бити излаза, некад на тежи некад на лакши начин.
pre 1 godinu
Kod njih bar nekako funkcioniše. Kod nas, gde god se pojavi četbot, samo smeta i ne daje nikakav koristan odgovor. Makar da opsuje.
pre 1 godinu
@ (Leonida, 21. januar 2024 21:50)
Leonida, sedi 1
(nik, 21. januar 2024 22:54)
@nik
"Leonida" koja je napisala tu izjavu verovatno je stručno lice u oblasti veštačke inteligencije, jer je tačno opisala kako funkcionišu veliki jezički modeli (LLM). LLM se treniraju na ogromnoj količini tekstnih podataka i uče da generišu tekst koji je sličan podacima na kojima su obučavani. Međutim, unutrašnji radovi LLM-a su složeni i nisu u potpunosti poznati, pa je teško objasniti tačno kako generišu tekst. Zbog toga se LLM-ovi često nazivaju "crnim kutijama".
Izjava da su "matematičke funkcije koje ljudi ne mogu da tumače" (mathematical functions that people cannot interpret) je malo preterana. Postoje neki istraživači koji rade na razvoju metoda za tumačenje izlaza LLM-ova, ali ove metode su još uvek u početnoj fazi razvoja.
U celini, osoba koja je napisala tu izjavu daje prilično tačan opis kako LLM funkcionišu. Oni ne tvrde da su LLM savršeni ili da ih ne mogu razumeti u potpunosti. Međutim, oni priznaju da su LLM složeni i da još uvek ima mnogo toga što treba naučiti o tome kako rade.
pre 1 godinu
A 'el će neko namerno da rokne atomsku bombu i optuže Ai-četbota?
pre 1 godinu
gangsta bot
pre 1 godinu
@ (Leonida, 21. januar 2024 21:50)
Leonida, sedi 1
pre 1 godinu
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Pa neuronske mreze jesu black box. Svejedno što su ih ljudi napisali.
pre 1 godinu
Vrlo izvesno je AI i programiran tako da maksimalno povlađuje besnom idiotu koji uostalom nije ni zvao da bi dobio bilo kakvu korisnu informaciju nego da se najebe majke "tamo njima" i eventualno to okačio na društvene mreže da se pohvali drugim idiotima.
Pa? Koliko može da se zaključi, ovaj uopšte nije nezadovoljan reakcijom korisničke službe. Šta je onda problem?
Sam sam nedavno zvao korisničku službu EPS-a i nakon što sam ih jedva dobio, otrpeo sam tiradu jedne gospođe Danice koja je, po rečenom, besnija od mene, pa mi se žalila i na stvari koje se mene savršeno ne tiču. Sad, možda je njoj bilo samo neopisivo dosadno, ali odslušah kako im je sistem za trivijalno upisivanje stanja brojila u raspadu, kako ona mora besplatno da obučava nove ljude koji brzo odu, kako je pre bez kompjutera sve bilo bolje, kako me ona razume jer i sama doživljava isto... Završilo se tako što sam joj se izvinio, da razumem da ona nije ništa kriva i ponudio sam se da joj pomognem ako ikako mogu. Evo to i činim bar ovako, tim ljudima je neopisivo teško i ne bi trebalo da ih davimo svojim problemima. A niko se ne seti da im čestita praznik ili slavu, pa ni da zapita za zdravlje.
pre 1 godinu
Dobro da nije silovao nekog
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Mi smo napisali neke početne funkcije, a onda LLM model kreće da obrađuje nepojmljive količine teksta i sam stvara veze i načine obrade i davanja odgovora sa milijardama parametara. A crna je kutija u smislu da čovek i kad bi gledao tu "logiku" koja je tako stvorena nikad ne bi mogao razumeti ni ispratiti jer je ogromna sa milijardama parametara.
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Mi smo naucili kako da treniramo tzv. AI modele, ali algoritam sam dolazi do odgovora na pitanja i to ne iz nekakve baze odgovora, vec na osnovu svih prikupljenih informacija (koje su pretvorene u nesto sto mi ne bi mogli direktno citati ili menjati). Ne, mi ne mozemo (ili makar ne umemo) da objasnimo kako tacno trenutni AI modeli "razmisljaju". Nije isto stvoriti i objasniti rezultat. No to je duga prica i ne moze je svako razumeti, a bogme ni objasniti dobro. Koga zanima, moze da poslusa neke od kreatora(mada su mnogi od nas na neki nacin radili na projektima vezanim za AI, i veruj mi, vecina odgovora otvara nova pitanja). Nije u pitanju neka magija, ali ne mozemo razmisljati kao AI, kao sto ne mozemo videti infracrvenu boju (a znamo da postoji jer je mozemo detektovati instrumentima).
pre 1 godinu
Nemojte biti naivni iza svega toga stoji opet čovjek koji je programer a to je najobičnija mašina tipa tostera bez čovječije pomoći..
(Bo_Sana_c, 22. januar 2024 07:47)
Za nekog je i toster super kompjuter.
pre 1 godinu
Nije pogrešio za DPD.
(hhhdf, 21. januar 2024 21:57)
Kako nije, zamisli da se Dart obruši na Apple, neće se desi, Apple je to uredno programirao. :D
pre 1 godinu
@ Apsolutno neracno!!! I ko ti daje pravo da tako nesto napises a nemas cinjenice da potvrdis svoju izjavu!?!
(achtwn, 21. januar 2024 22:20)
Verovatno je ovo napisao neki programer kome fali kod za shvatanje šale :D Čak se i naljutio :D
pre 1 godinu
Nemojte biti naivni iza svega toga stoji opet čovjek koji je programer a to je najobičnija mašina tipa tostera bez čovječije pomoći..
pre 1 godinu
pomesao ulje ivodu
pre 1 godinu
Presis'o !
pre 1 godinu
Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
(Ništa AI, 21. januar 2024 20:37)
Apsolutno neracno!!! I ko ti daje pravo da tako nesto napises a nemas cinjenice da potvrdis svoju izjavu!?!
pre 1 godinu
fejkara u najavi.
pre 1 godinu
Skoro sam pročitao dobru foru.
Pitali AI:"Reci osam"
AI odgovara :"Osam".
Očigledno nije trenirana u Srbiji :)
pre 1 godinu
Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
(Ništa AI, 21. januar 2024 20:37)
Apsolutno neracno!!! I ko ti daje pravo da tako nesto napises a nemas cinjenice da potvrdis svoju izjavu!?!
pre 1 godinu
@Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
(Ništa AI, 21. januar 2024 20:37)
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
pre 1 godinu
Nema matematičkog modela koji može da osmisli odgovore pogotovo što se tiče poznavanja geografije, matematike i drugih područja znanja i nauke. Koristi se baza podataka, a koliko sam video matematički model čitanja baze ili baza i njihovog povezivanja je jadan. Ova priča o VI (veštačkoj inteligenciji) ili AI samo zabavlja priglupe i služi za plašenje svih ostalih. Znate zašto, upravljanje društvom.
pre 1 godinu
Srbi su izmislili veštačku inteligenciju pre tri decenije na Univerzitetu Danice i Janićija Karića, a usavršili na Univerzitetu Miće Nezbita, i, potom, preuzeli vlast, bajo moj!
pre 1 godinu
@ (Leonida, 21. januar 2024 21:50)
Leonida, sedi 1
pre 1 godinu
Nemojte biti naivni iza svega toga stoji opet čovjek koji je programer a to je najobičnija mašina tipa tostera bez čovječije pomoći..
pre 1 godinu
Ma, to mu neki očepljeni radnik ubacio u bazu odgovora.
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
pre 1 godinu
A 'el će neko namerno da rokne atomsku bombu i optuže Ai-četbota?
pre 1 godinu
Otišao mu plivajući zamajac.
pre 1 godinu
Naravno da su Srbi izmislili, čak i reč čet-nik postoji pre američkog interneta
pre 1 godinu
...tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Tamo se obično nalazi JEDNA matematička funkcija, koja postoji da unese nelinearnost, i koristi se jedna od nekoliko standardnih funkcija za primenu u neuronskim mrežama kod dubokog učenja (deep learning), jer nema smisla imati i 10 slojeva, ako su veze između čvorova linearne, pošto se kompozicija linearnih preslikavanja može predstaviti jednim linearnim preslikavanjem.
Većina sličnih neuronskih mreža koristi ogroman broj čvorova i relativno veliki broj slojeva, što znači da se radi o desetinama i čak stotinama milijardi parametara, a ko trenutno najvećeg modela prisutno je 1500 milijardi parametara.
Zato se i postavlja pitanje MONOPOLA na takve neuronske mreže, jer treniranje može trenutno raditi samo nekoliko najvećih kompanija, kao što su Google i Microsoft, jer imaju dovoljno hardvera za tako nešto. Univerzitetskim istraživačima su praktično vezane ruke, jer ne mogu ništa da urade ni sa serverima koje imaju 16 nVidia H100 kartica, što bi značilo preko terabajt video memorije, jer na tome ne mogu da treniraju ništa ozbiljnije kad su u pitanju veliki jezički modeli (LLM - Large Language Models). Za tako nešto je potreban hardver, za koji je trenutno na najboljem putu da reši problem kompanija Cerebras, ali Google ipak ima svoje TPU kao jeftinije rešenje koje se lakše skalira.
pre 1 godinu
Кад буде мога да спречи искључење струје и интернета, онда смо ми људи угасили. Мада ће увек бити излаза, некад на тежи некад на лакши начин.
pre 1 godinu
Nemojte biti naivni iza svega toga stoji opet čovjek koji je programer a to je najobičnija mašina tipa tostera bez čovječije pomoći..
(Bo_Sana_c, 22. januar 2024 07:47)
Za nekog je i toster super kompjuter.
pre 1 godinu
Pa DPD i nije za bolje
pre 1 godinu
Prebacio
pre 1 godinu
@ (Leonida, 21. januar 2024 21:50)
Leonida, sedi 1
(nik, 21. januar 2024 22:54)
@nik
"Leonida" koja je napisala tu izjavu verovatno je stručno lice u oblasti veštačke inteligencije, jer je tačno opisala kako funkcionišu veliki jezički modeli (LLM). LLM se treniraju na ogromnoj količini tekstnih podataka i uče da generišu tekst koji je sličan podacima na kojima su obučavani. Međutim, unutrašnji radovi LLM-a su složeni i nisu u potpunosti poznati, pa je teško objasniti tačno kako generišu tekst. Zbog toga se LLM-ovi često nazivaju "crnim kutijama".
Izjava da su "matematičke funkcije koje ljudi ne mogu da tumače" (mathematical functions that people cannot interpret) je malo preterana. Postoje neki istraživači koji rade na razvoju metoda za tumačenje izlaza LLM-ova, ali ove metode su još uvek u početnoj fazi razvoja.
U celini, osoba koja je napisala tu izjavu daje prilično tačan opis kako LLM funkcionišu. Oni ne tvrde da su LLM savršeni ili da ih ne mogu razumeti u potpunosti. Međutim, oni priznaju da su LLM složeni i da još uvek ima mnogo toga što treba naučiti o tome kako rade.
pre 1 godinu
Verovatno je na minimalcu...
pre 1 godinu
Nije pogrešio za DPD.
pre 1 godinu
Nije pogrešio za DPD.
(hhhdf, 21. januar 2024 21:57)
Kako nije, zamisli da se Dart obruši na Apple, neće se desi, Apple je to uredno programirao. :D
pre 1 godinu
"Učim Čatbotove lepom ponašanju, po kućama. Nosim svoj pribor. Može i remote, za zainteresovane."
- I tako je rođeno novo zanimanje.
pre 1 godinu
Vrlo izvesno je AI i programiran tako da maksimalno povlađuje besnom idiotu koji uostalom nije ni zvao da bi dobio bilo kakvu korisnu informaciju nego da se najebe majke "tamo njima" i eventualno to okačio na društvene mreže da se pohvali drugim idiotima.
Pa? Koliko može da se zaključi, ovaj uopšte nije nezadovoljan reakcijom korisničke službe. Šta je onda problem?
Sam sam nedavno zvao korisničku službu EPS-a i nakon što sam ih jedva dobio, otrpeo sam tiradu jedne gospođe Danice koja je, po rečenom, besnija od mene, pa mi se žalila i na stvari koje se mene savršeno ne tiču. Sad, možda je njoj bilo samo neopisivo dosadno, ali odslušah kako im je sistem za trivijalno upisivanje stanja brojila u raspadu, kako ona mora besplatno da obučava nove ljude koji brzo odu, kako je pre bez kompjutera sve bilo bolje, kako me ona razume jer i sama doživljava isto... Završilo se tako što sam joj se izvinio, da razumem da ona nije ništa kriva i ponudio sam se da joj pomognem ako ikako mogu. Evo to i činim bar ovako, tim ljudima je neopisivo teško i ne bi trebalo da ih davimo svojim problemima. A niko se ne seti da im čestita praznik ili slavu, pa ni da zapita za zdravlje.
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Mi smo napisali neke početne funkcije, a onda LLM model kreće da obrađuje nepojmljive količine teksta i sam stvara veze i načine obrade i davanja odgovora sa milijardama parametara. A crna je kutija u smislu da čovek i kad bi gledao tu "logiku" koja je tako stvorena nikad ne bi mogao razumeti ni ispratiti jer je ogromna sa milijardama parametara.
pre 1 godinu
Skoro sam pročitao dobru foru.
Pitali AI:"Reci osam"
AI odgovara :"Osam".
Očigledno nije trenirana u Srbiji :)
pre 1 godinu
Kod njih bar nekako funkcioniše. Kod nas, gde god se pojavi četbot, samo smeta i ne daje nikakav koristan odgovor. Makar da opsuje.
pre 1 godinu
fejkara u najavi.
pre 1 godinu
Malo pojašnjenje iz struke: ne postoji baza odgovara, model se trenira i funkcioniše kao crna kutija u koju se ubaci pitanje i dobije odgovor, a ne vidi se kako to zaista funkcioniše unutra, tamo se nalaze neke matematičke funkcije koje ljudi ne mogu da tumače, ali kompjuter ih pretvara u govor.
(Leonida, 21. januar 2024 21:50)
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Mi smo naucili kako da treniramo tzv. AI modele, ali algoritam sam dolazi do odgovora na pitanja i to ne iz nekakve baze odgovora, vec na osnovu svih prikupljenih informacija (koje su pretvorene u nesto sto mi ne bi mogli direktno citati ili menjati). Ne, mi ne mozemo (ili makar ne umemo) da objasnimo kako tacno trenutni AI modeli "razmisljaju". Nije isto stvoriti i objasniti rezultat. No to je duga prica i ne moze je svako razumeti, a bogme ni objasniti dobro. Koga zanima, moze da poslusa neke od kreatora(mada su mnogi od nas na neki nacin radili na projektima vezanim za AI, i veruj mi, vecina odgovora otvara nova pitanja). Nije u pitanju neka magija, ali ne mozemo razmisljati kao AI, kao sto ne mozemo videti infracrvenu boju (a znamo da postoji jer je mozemo detektovati instrumentima).
pre 1 godinu
Dobro da nije silovao nekog
pre 1 godinu
Kako misliš "ljudi ne mogu da tumače"?
Pa mi smo napisali te funckije.
(Kutija, 21. januar 2024 22:22)
Pa neuronske mreze jesu black box. Svejedno što su ih ljudi napisali.
pre 1 godinu
To se našim čet botovima ne može desiti. Oni su verni some kreatoru.
pre 1 godinu
gangsta bot
pre 1 godinu
pomesao ulje ivodu
pre 1 godinu
@ Apsolutno neracno!!! I ko ti daje pravo da tako nesto napises a nemas cinjenice da potvrdis svoju izjavu!?!
(achtwn, 21. januar 2024 22:20)
Verovatno je ovo napisao neki programer kome fali kod za shvatanje šale :D Čak se i naljutio :D
pre 1 godinu
Presis'o !
34 Komentari
Sortiraj po: