Skip to content

OpenAI në gjykatë në Kaliforni: dëshmitarët pretendojnë se produkti e ka mbytur sigurinë

1 min. lexim
Shpërndaj

OpenAI u gjet në gjykatë në Kaliforni, jo si paditës, por si palë e akuzuar në një nga rastet më të mëdha në industrinë e inteligjencës artificiale. Elon Mask, ish-bashkëthemeluesi i kompanisë, padit se OpenAI e ka tradhtuar misionin e tij origjinal - siguria e AI-së dhe përfitimi për njerëzimin - për shkak të interesit komercial. Dhe dëshmitarët që kanë dhënë deklarata, nuk po e ndihmojnë kompaninë.

Rosie Campbell, që iu bashkua ekipit për përgatitje për AGI në vitin 2021 dhe iku në 2024 pasi ekipi i saj u shpërbë, përshkroi një proces në të cilin OpenAI u transformua para syve të saj. „Kur u bashkova, gjithçka ishte shumë e fokusuar në kërkim dhe shpesh flisnim për AGI dhe çështjet e sigurisë", dëshmoi ajo. „Me kohën u kthye më shumë në një organizatë të orientuar nga produkti." Përkthim: kërkuesit u zëvendësuan me marketingjistët. Ekipi për Super Alignment, një nga reparte kyçe për sigurinë, u mbyll në të njëjtën periudhë.

Campbell tregoi për një incident konkret - Microsoft e lansoi GPT-4 në Indi përmes Bing-ut para se modeli të kalonte fare vlerësimin nga Bordi për Implementim të Sigurt të OpenAI. Edhe pse rreziku nga vetë modeli ishte minimal, pikëpamja është tjetër: nëse nuk respektohen proceset për modelet bazë, çfarë do të ndodhë kur teknologjia të bëhet vërtet e rrezikshme?

Tasha McCauley, ish-anëtare e bordit nga pjesa jofitimprurëse e OpenAI, shkoi edhe më tej. Ajo dëshmoi se Sam Altman, drejtori ekzekutiv, i ka mashtruar anëtarët e bordit, nuk i ka njoftuar për lansimin publik të ChatGPT, dhe ka fshehur konflikte të mundshme interesi. „Ne jemi bord jofitimprurës dhe mandati ynë ishte ta mbikëqyrnim pjesën fitimprurëse poshtë nesh", deklaroi ajo. „Nuk kishim shkallë të lartë besimi se informacionet që na transmetonin na lejonin të merrnim vendime në mënyrë të informuar."

Kur bordi u përpoq ta largonte Altman në 2023, punonjësit u mblodhën rreth tij, Microsoft ndërhyri, dhe vendimi u tërhoq. Ky është tani një fakt i dokumentuar para gjykatës. „Nëse gjithçka mbetet te një drejtor ekzekutiv që merr vendime të tilla, e në pyetje është e mira publike - kjo është shumë suboptimale", shtoi McCauley. Me fjalë të tjera: një kompani që mban në duar një teknologji me implikime globale nuk duhet të varet nga teka e një njeriu të vetëm.

Dëshmitari ekspert për ekipin e Mask, David Schizer, ish-dekan i Columbia Law School, e theksoi pyetjen: „OpenAI theksoi se një pjesë kyçe e misionit të tyre është siguria dhe se do ta vënë sigurinë para fitimit. Pjesë e kësaj është të marrësh seriozisht rregullat e sigurisë. Nëse diçka duhet të jetë subjekt i një vlerësimi sigurie, ajo duhet të ndodhë. Bëhet fjalë për vetë procesin."

OpenAI refuzoi të komentojë për qasjen aktuale ndaj AGI alignment, por kujtoi se publikisht ndan vlerësimet e modeleve dhe se në shkurt punësoi një shef të ri për përgatitje, Dylan Scandinaro, më parë nga Anthropic. Kjo është një përgjigje institucionale ndaj një krize besimi, por jo ndaj një pyetjeje strukturore. Sepse pyetja që shtrojnë dëshmitarët nuk është nëse OpenAI ka procese - por nëse ka vullnet t'i respektojë kur ato përplasen me afate, investitorë ose presione politike.

Për Ballkanin kjo mund të tingëllojë e largët, por është gjithçka tjetër veç saj. Të njëjtat modele arrijnë te telefonat tanë, shkollat tona dhe bizneset tona. Kur industria globale e AI-së nuk mund t'i respektojë rregullat e veta, rregullatorët nga Brukseli te Shkupi duhet t'i shtrojnë vetes një pyetje: nëse njerëzit që e krijojnë teknologjinë nuk mund t'i besojnë kompanisë së tyre, si duhet t'i besojmë ne?