Skip to content

OpenAI Kaliforniya'da mahkemede: tanıklar ürünün güvenliği boğduğunu iddia ediyor

1 dk okuma
Paylaş

OpenAI, Kaliforniya'da mahkemede - davacı olarak değil, yapay zeka endüstrisindeki en büyük davalardan birinde sanık olarak. Şirketin eski kurucu ortağı Elon Musk, OpenAI'nin orijinal misyonunu - AI güvenliği ve insanlık yararı - ticari çıkar uğruna ihanet ettiğini iddia ediyor. Ve ifade veren tanıklar şirkete yardımcı olmuyor.

2021'de AGI hazırlık ekibine katılan ve ekibi dağıldıktan sonra 2024'te ayrılan Rosie Campbell, OpenAI'nin gözlerinin önünde dönüştüğü bir süreci anlattı. „Katıldığımda her şey çok araştırma odaklıydı ve sık sık AGI ve güvenlik sorularından bahsediyorduk", dedi tanıklığında. „Zamanla daha çok ürün odaklı bir organizasyona dönüştü." Tercüme: araştırmacılar pazarlamacılarla değiştirildi. Güvenliğin temel departmanlarından biri olan Süper Hizalama ekibi de aynı dönemde kapatıldı.

Campbell somut bir olaya dikkat çekti - Microsoft, model henüz OpenAI'nin Güvenli Uygulama Kurulu'ndan değerlendirme bile geçmeden GPT-4'ü Hindistan'da Bing üzerinden başlattı. Modelin kendisinden gelen risk minimal olsa bile, mesele başka: temel modeller için süreçlere uyulmazsa, teknoloji gerçekten tehlikeli hale geldiğinde ne olacak?

OpenAI'nin kâr amacı gütmeyen kolundaki eski yönetim kurulu üyesi Tasha McCauley daha da ileri gitti. CEO Sam Altman'ın yönetim kurulu üyelerini yanılttığını, ChatGPT'nin kamuya açık lansmanı hakkında onları bilgilendirmediğini, ve potansiyel çıkar çatışmalarını sakladığını söyledi. „Biz kâr amacı gütmeyen yönetim kuruluyuz ve görevimiz altımızdaki kâr amaçlı kolu denetlemekti", dedi. „Bize ilettikleri bilgilerin bilgili kararlar almamıza izin verdiğine dair yüksek bir güven düzeyimiz yoktu."

2023'te yönetim kurulu Altman'ı görevden almaya çalıştığında, çalışanlar onun etrafında toplandı, Microsoft müdahale etti, ve karar geri alındı. Bu artık mahkemede belgelenmiş bir gerçek. „Eğer her şey bu tür kararları alan tek bir CEO'ya kalırsa, ve söz konusu olan kamu yararıysa - bu çok suboptimal", ekledi McCauley. Başka bir deyişle: küresel etkileri olan teknolojiyi elinde tutan bir şirket, tek bir adamın kaprisine bağlı olmamalı.

Musk'ın ekibi için bilirkişi tanık, eski Columbia Hukuk Fakültesi dekanı David Schizer, soruyu keskinleştirdi: „OpenAI, misyonlarının önemli bir kısmının güvenlik olduğunu ve güvenliği kârın önüne koyacaklarını vurguladı. Bunun bir kısmı güvenlik kurallarını ciddiye almaktır. Bir şey güvenlik değerlendirmesinin konusu olmalıysa, bu olmalıdır. Mesele sürecin kendisidir."

OpenAI, mevcut AGI hizalama yaklaşımı hakkında yorum yapmayı reddetti, ama model değerlendirmelerini kamuya açık olarak paylaştığını ve şubatta önceden Anthropic'te olan yeni bir hazırlık başkanı Dylan Scandinaro'yu işe aldığını hatırlattı. Bu güven krizine kurumsal bir cevap, ama yapısal bir soruya değil. Çünkü tanıkların sorduğu soru OpenAI'nin süreçleri olup olmadığı değil - son tarihler, yatırımcılar veya siyasi baskılarla çatıştığında onlara saygı duyma iradesinin olup olmadığı.

Balkanlar için bu kulağa uzak gelebilir, ama hiç de değil. Aynı modeller telefonlarımıza, okullarımıza ve işletmelerimize ulaşıyor. Küresel AI endüstrisi kendi kurallarına saygı gösteremediğinde, Brüksel'den Üsküp'e kadar düzenleyiciler kendilerine bir soru sormalı: teknolojiyi yaratan insanlar kendi şirketlerine güvenemiyorsa, biz neden güvenelim?