Skip to content

Palantir në Gaza, Liban dhe Iran: AI për identifikimin e objektivave, kontratë 10 miliardë me Pentagonin, dhe përgjegjësi e turbullt

1 min. lexim
Shpërndaj

Kompania amerikane për analizë të dhënash Palantir është gjithnjë e më thellë në operacionet e ushtrisë izraelite. Raportet tregojnë përdorim të sistemeve të saj AI në Gaza, Liban, dhe në operacionet kundër Iranit. Jo si partner i largët - por si komponent i ngulitur në vetë procesin e përcaktimit të objektivave.

Palantir punon përmes platformave Gotham, AIP (AI Platform), Foundry dhe Skykit. Të gjitha ofrojnë kombinim të analizës masive të të dhënave, sistemeve operative AI dhe aftësive zbuluese në terren. Vitin e kaluar kompania nënshkroi kontratë prej 10 miliardë dollarë me ushtrinë amerikane dhe u bë partner kyç i Pentagonit në projektin „Maven" - që përdor inteligjencën artificiale për identifikim objektivash dhe analizë të fushëbetejës.

Themeluesit e Palantirit, Aleks Karp dhe Piter Til, në janar 2024 mbajtën mbledhje bordi në Tel Aviv dhe u takuan me presidentin izraelit Isak Hercog. Në të njëjtën periudhë u nënshkrua kontratë me autoritetet mbrojtëse izraelite për „bashkëpunim strategjik". Më vonë Palantir tha se do të ofrojë mbështetje AI për „misione ushtarake", pa shpjegim të detajuar.

Gjatë vizitës në Tel Aviv, Karp tha se kërkesa për shërbimet e kompanisë „u rrit ndjeshëm pas 7 tetorit 2023". Përkthim: pas sulmit të Hamasit, Izraeli nisi një fazë të re të punës operative të inteligjencës, dhe Palantir u bë pjesë e asaj arkitekture.

Qendra për biznes dhe të drejtat e njeriut në vitin 2024 pretendoi se teknologjitë e Palantirit u përdorën drejtpërdrejt në sulmet izraelite në Gaza. Kompania i mohoi pretendimet, duke thënë se aktivitetet e saj në Izrael i paraprijnë 7 tetorit. Por libri i gazetarit Majkëll Stajnberger pretendon se operacionet kundër zyrtarëve të lartë të Hezbollahut në Liban në vitin 2024 përdorën mjetet e Palantirit. I njëjti libër e lidh teknologjinë edhe me operacionin „Grim Beeper" - kur peixhera shpërthyes plagosën qindra anëtarë të Hezbollahut.

Edhe më interesante: sipas Washington Post, Pentagoni përdori „Maven Smart System" të Palantirit, të integruar me modelin Claude të Anthropic, gjatë planifikimit të sulmeve ndaj Iranit. Objektiva të identifikuar dhe të mapuar përmes analizës së avancuar AI. Ky fakt është i rëndësishëm në vetvete - një model i zhvilluar për bisedë dhe shkrim, përdoret në synjim për luftë.

Ish-punonjësja e Microsoft, Ibtihal Abuasad, në një protestë në prill 2025 i përshkroi sistemet e Palantirit si të dizajnuara për „mbikëqyrje, luftë dhe vrasje". Pretendon se sistemet izraelite „Lavender" dhe „Where's Daddy" - që përdoren për identifikim objektivash në Gaza - janë ndërtuar mbi infrastrukturën e Palantirit.

Eksperti i AI në Institutin e Stokholmit për hulumtime për paqe (SIPRI), Lora Brun, thekson se pyetja e përgjegjësisë është e turbullt. „Nuk ka përcaktim të qartë se çfarë duhet të bëjnë praktikisht shtetet për të përdorur AI në mënyrë ligjore dhe të përgjegjshme." Kjo është fjalia thelbësore - shtetet janë përgjegjëse, por nuk dinë saktësisht për çfarë. Dhe në atë mjegull caktohen objektiva, vriten njerëz, dhe lidhen algoritme me vendime për jetë e vdekje. Pyetja që të gjithë e shmangin: nëse gabimi nuk është njeri por model, kush shkon nën hetim?