Skip to content

Palantir во Газа, Либан и Иран: AI за идентификација на цели, договор од 10 милијарди со Пентагон, и магловита одговорност

1 мин. читање
Сподели

Американската компанија за анализа на податоци Palantir е сè подлабоко во операциите на израелската војска. Извештаите укажуваат на употреба на нејзините AI системи во Газа, Либан, и во операциите против Иран. Не како далечен партнер – туку како вградена компонента во самиот процес на одредување цели.

Palantir работи преку платформите Gotham, AIP (AI Platform), Foundry и Skykit. Сите тие нудат комбинација на масовна анализа на податоци, оперативни AI системи, и теренски разузнавачки можности. Минатата година компанијата потпиша договор од 10 милијарди долари со американската војска и стана клучен партнер на Пентагон во проектот „Maven” – кој користи вештачка интелигенција за идентификација на цели и анализа на бојното поле.

Косновачите на Palantir, Алекс Карп и Питер Тил, во јануари 2024 година имаа седница на одборот во Тел Авив и се сретнаа со израелскиот претседател Исак Херцог. Во истиот период беше потпишан договор со израелските одбранбени власти за „стратешка соработка”. Подоцна, Palantir го изјави дека ќе обезбедува AI поддршка за „воени мисии”, без подетално објаснување.

За време на посетата во Тел Авив, Карп изјави дека побарувачката за услугите на компанијата „значително порасна по 7 октомври 2023″. Превод: после нападот на Хамас, Израел стартуваше нова фаза на оперативно разузнавање, и Palantir стана дел од таа архитектура.

Центарот за бизнис и човекови права во 2024 година тврдеше дека Palantir технологиите се директно користеле во израелските напади на Газа. Компанијата ги демантираше тврдењата, велејќи дека нејзините активности во Израел се пред 7 октомври. Но книгата на новинарот Мајкл Стајнбергер тврди дека операциите против високи функционери на Хезболах во Либан во 2024 година ги користеле Palantir алатките. Истата книга ја вмешува технологијата и во операцијата „Grim Beeper” – кога експлозивни пејџери ранија стотици членови на Хезболах.

Уште поинтересно: според Washington Post, Пентагон го користел Palantir-овиот „Maven Smart System”, интегриран со Claude моделот на Anthropic, при планирањето на нападите врз Иран. Цели идентификувани и мапирани преку напредна AI анализа. Овој факт е значаен сам по себе – моделот развиен за разговор и пишување, се користи во таргетирање за војна.

Поранешната вработена на Microsoft, Ибтихал Абуасад, на протест во април 2025 ги опиша системите на Palantir како дизајнирани за „надзор, војна и убивање”. Тврди дека израелските системи „Lavender” и „Where’s Daddy” – кои се користат за идентификација на цели во Газа – се исградени врз Palantir инфраструктура.

Експертката за AI на Стокхолмскиот институт за мировни истражувања (SIPRI), Лора Брун, нагласува дека прашањето за одговорност е магловито. „Не постои јасна определба за тоа што државите практично мора да прават за да користат AI законски и одговорно”. Тоа е есенцијална реченица – државите се одговорни, но не знаат за што точно. И во таа маглина се одредуваат цели, се убиваат луѓе, и се сврзуваат алгоритми со одлуки за живот и смрт. Прашањето кое сите ги избегнуваат: ако грешката не е човек туку модел, кој оди под истрага?