Skip to content

Palantir u Gazi, Libanu i Iranu: AI za identifikaciju ciljeva, ugovor od 10 milijardi sa Pentagonom, i maglovita odgovornost

1 min. čitanja
Podeli

Američka kompanija za analizu podataka Palantir sve je dublje u operacijama izraelske vojske. Izveštaji ukazuju na upotrebu njenih AI sistema u Gazi, Libanu i u operacijama protiv Irana. Ne kao daleki partner - već kao ugrađena komponenta u sam proces određivanja ciljeva.

Palantir radi preko platformi Gotham, AIP (AI Platform), Foundry i Skykit. Sve one nude kombinaciju masovne analize podataka, operativnih AI sistema i terenskih obaveštajnih mogućnosti. Prošle godine kompanija je potpisala ugovor od 10 milijardi dolara sa američkom vojskom i postala ključni partner Pentagona u projektu „Maven" - koji koristi veštačku inteligenciju za identifikaciju ciljeva i analizu bojnog polja.

Osnivači Palantira, Aleks Karp i Piter Til, u januaru 2024. godine održali su sednicu odbora u Tel Avivu i sreli se sa izraelskim predsednikom Isakom Hercogom. U istom periodu potpisan je ugovor sa izraelskim odbrambenim vlastima za „stratešku saradnju". Kasnije, Palantir je izjavio da će obezbediti AI podršku za „vojne misije", bez detaljnog objašnjenja.

Tokom posete Tel Avivu Karp je izjavio da je potražnja za uslugama kompanije „značajno porasla posle 7. oktobra 2023". Prevod: posle napada Hamasa, Izrael je startovao novu fazu operativnog obaveštajnog rada, i Palantir je postao deo te arhitekture.

Centar za biznis i ljudska prava 2024. godine tvrdio je da su tehnologije Palantira direktno korišćene u izraelskim napadima na Gazu. Kompanija je demantovala tvrdnje, navodeći da su njene aktivnosti u Izraelu prethodile 7. oktobru. Ali knjiga novinara Majkla Stajnbergera tvrdi da su operacije protiv visokih funkcionera Hezbolaha u Libanu 2024. godine koristile Palantirove alatke. Ista knjiga povezuje tehnologiju i sa operacijom „Grim Beeper" - kada su eksplozivni pejdžeri ranili stotine članova Hezbolaha.

Još interesantnije: prema Washington Postu, Pentagon je koristio Palantirov „Maven Smart System", integrisan sa Claude modelom kompanije Anthropic, pri planiranju napada na Iran. Ciljevi identifikovani i mapirani kroz naprednu AI analizu. Ova činjenica je značajna sama po sebi - model razvijen za razgovor i pisanje koristi se u targetiranju za rat.

Bivša zaposlena Microsofta, Ibtihal Abuasad, na protestu u aprilu 2025. opisala je sisteme Palantira kao dizajnirane za „nadzor, rat i ubijanje". Tvrdi da su izraelski sistemi „Lavender" i „Where's Daddy" - koji se koriste za identifikaciju ciljeva u Gazi - izgrađeni na Palantir infrastrukturi.

Ekspertkinja za AI u Stokholmskom institutu za mirovna istraživanja (SIPRI), Lora Brun, naglašava da je pitanje odgovornosti maglovito. „Ne postoji jasno određenje šta države praktično moraju da rade da bi koristile AI zakonski i odgovorno." To je esencijalna rečenica - države su odgovorne, ali ne znaju tačno za šta. I u toj magli se određuju ciljevi, ubijaju ljudi, i povezuju algoritmi sa odlukama o životu i smrti. Pitanje koje svi izbegavaju: ako greška nije čovek već model, ko ide pod istragu?