10.03.2026.
8:00
Da li su civili najveće žrtve novog saveza OpenAI-a i Pentagona?
Novi ugovori koje OpenAI potpisuje sa američkom vojskom podigli su ogromnu prašinu u silicijumskoj dolini.
Kada je kompanija Anthropic nedavno odustala od kontroverznog ugovora sa Pentagonom vrednog 200 miliona dolara, mnogi su mislili da će etički standardi prevladati nad vojnim budžetima. Ipak, prazninu je ekspresno popunio OpenAI. Kreatori ChatGPT-a ne samo da su preuzeli štafetu, već su u svojim ugovorima ostavili pravne "rupe" koje omogućavaju upotrebu AI modela za masovni nadzor i vojne operacije.
Podsećamo, OpenAI je prošle godine tiho izmenio svoje uslove korišćenja, uklonivši eksplicitnu zabranu upotrebe njihove tehnologije u vojne i borbene svrhe. Danas, njihovi modeli usko sarađuju sa kompanijama poput Andurila i direktno sa Pentagonom na projektima nacionalne bezbednosti.
Problem, međutim, leži u onome što se dešava "ispod haube". Sara Šoker, bivša šefica za geopolitiku u OpenAI-u, ističe da netransparentnost algoritama (tzv. black box efekat) u kombinaciji sa vojnom tajnošću stvara opasan presedan.
"Najveći gubitnici u svemu ovome su obični ljudi i civili u zonama sukoba", upozorava Šoker.
- Ako neće Anthropic, ima ko hoće: OpenAI u Pentagonu
- Počelo odbrojavanje: Pentagon preti Anthropicu
- Više nema povratka: AI počeo da bira mete, čovek samo pritiska taster
Ono što sve najviše zabrinjava jeste primena ovih modela. AI modeli sada imaju sposobnost da u realnom vremenu obrađuju milijarde podataka o građanima koje vlade kupuju od privatnih brokera podataka.
Zahvaljujući novim ugovorima, AI može da vrši:
Masovno profilisanje: Kategorizacija građana na osnovu online navika.
Prediktivni nadzor: Analiza ponašanja radi „predviđanja“ potencijalnih pretnji.
Analizu obaveštajnih podataka: Sortiranje ogromnih količina informacija koje bi ljudima bili potrebni meseci da pročitaju.
Dok se OpenAI brani tvrdnjama da njihova tehnologija pomaže u "odbrani demokratskih vrednosti", kritičari podsećaju da AI modeli i dalje pate od "halucinacija" i pristrasnosti. Kada se takva tehnologija primeni u vojnom kontekstu ili u sistemima nadzora, greška u kodu može da znači gubitak ljudskih života ili neopravdano kršenje privatnosti.
Komentari 0
Pogledaj komentare Pošalji komentar