Skip to content

Gazze, Lübnan ve İran'da Palantir: hedef tanımlama için yapay zekâ, Pentagon'la 10 milyarlık sözleşme, ve bulanık sorumluluk

1 dk okuma
Paylaş

Amerikan veri analizi şirketi Palantir İsrail ordusunun operasyonlarına giderek daha derin biçimde nüfuz ediyor. Raporlar yapay zekâ sistemlerinin Gazze'de, Lübnan'da ve İran'a karşı operasyonlarda kullanıldığını gösteriyor. Uzak bir ortak olarak değil - hedef seçim sürecine yerleşik bir bileşen olarak.

Palantir Gotham, AIP (AI Platform), Foundry ve Skykit platformları üzerinden çalışıyor. Hepsi büyük veri analizi, operasyonel yapay zekâ sistemleri ve saha istihbaratı yeteneklerinin bir kombinasyonunu sunuyor. Geçen yıl şirket ABD ordusuyla 10 milyar dolarlık sözleşme imzaladı ve Pentagon'un „Maven" projesinde - hedef tanımlama ve muharebe alanı analizi için yapay zekâ kullanan projede - kilit ortak haline geldi.

Palantir'in kurucuları Alex Karp ve Peter Thiel Ocak 2024'te Tel Aviv'de yönetim kurulu toplantısı yaptılar ve İsrail Cumhurbaşkanı İsak Herzog ile görüştüler. Aynı dönemde İsrail savunma makamlarıyla „stratejik işbirliği" sözleşmesi imzalandı. Daha sonra Palantir, ayrıntılı açıklama yapmadan, „askeri görevler" için yapay zekâ desteği sağlayacağını söyledi.

Tel Aviv ziyareti sırasında Karp şirketin hizmetlerine talebin „7 Ekim 2023'ten bu yana belirgin biçimde arttığını" söyledi. Çevirisi: Hamas saldırısının ardından İsrail yeni bir operasyonel istihbarat aşaması başlattı ve Palantir bu mimarinin parçası oldu.

İş ve İnsan Hakları Merkezi 2024'te Palantir teknolojilerinin İsrail'in Gazze'ye yaptığı saldırılarda doğrudan kullanıldığını iddia etti. Şirket iddiaları, İsrail'deki faaliyetlerinin 7 Ekim'den önce başladığını söyleyerek reddetti. Ama gazeteci Michael Steinberger'in kitabı, 2024'te Lübnan'da Hizbullah'ın üst düzey yetkililerine karşı yürütülen operasyonlarda Palantir araçlarının kullanıldığını iddia ediyor. Aynı kitap teknolojiyi „Grim Beeper" operasyonuna - patlayan çağrı cihazlarının yüzlerce Hizbullah üyesini yaraladığı olaya - bağlıyor.

Daha da ilginci: Washington Post'a göre Pentagon, İran'a yönelik saldırıların planlanmasında Anthropic'in Claude modeliyle entegre Palantir'in „Maven Smart System"ini kullandı. Hedefler ileri yapay zekâ analiziyle tanımlandı ve haritalandı. Bu gerçek başlı başına önemli - sohbet ve yazı için geliştirilen bir model savaş için hedefleme amacıyla kullanılıyor.

Eski Microsoft çalışanı İbtihal Abuasad Nisan 2025'teki bir protestoda Palantir sistemlerini „gözetim, savaş ve öldürme" için tasarlanmış olarak nitelendirdi. Gazze'de hedef tanımlamada kullanılan İsrail sistemleri „Lavender" ve „Where's Daddy"nin Palantir altyapısı üzerine kurulduğunu iddia ediyor.

Stockholm Uluslararası Barış Araştırmaları Enstitüsü'nün (SIPRI) yapay zekâ uzmanı Laura Bruun, sorumluluk meselesinin bulanık olduğunu vurguluyor: „Devletlerin yapay zekâyı yasal ve sorumlu biçimde kullanmak için pratikte ne yapması gerektiğine dair net bir belirleme yok." Bu temel cümle - devletler sorumlu ama tam olarak neden olduğunu bilmiyor. Ve bu sis içinde hedefler seçiliyor, insanlar öldürülüyor ve algoritmalar yaşam ölüm kararlarına bağlanıyor. Herkesin kaçındığı soru: hata insan değil de model ise, soruşturma kime açılıyor?