Skip to content

OpenAI пред суд во Калифорнија: сведоци тврдат дека продуктот ја задушил безбедноста

1 мин. читање
Сподели

OpenAI се најде пред суд во Калифорнија, не како тужител, туку како обвинета страна во еден од најголемите случаи во индустријата на вештачката интелигенција. Илон Маск, поранешен косоосновач на компанијата, тужи дека OpenAI ја предала својата првобитна мисија – безбедност на ВИ и придобивка за човештвото – заради комерцијален интерес. И сведоците кои дадоа изјави, не помагаат на компанијата.

Роузи Кембел, која се приклучи на тимот за подготвеност за AGI во 2021 година и замина во 2024 откако нејзиниот тим беше расфрлан, опиша процес во кој OpenAI се трансформираше пред нејзините очи. „Кога се приклучив, сè беше многу истражувачки фокусирано и често зборувавме за AGI и прашања на безбедност”, сведочеше таа. „Со време стана повеќе како продуктно фокусирана организација.” Превод: истражувачите беа заменети со маркетингашите. Тимот за Super Alignment, едно од клучните одделенија за безбедност, беше затворен во истиот период.

Кембел укажа на конкретен инцидент – Microsoft го пуштил GPT-4 во Индија преку Bing пред моделот воопшто да поминел евалуација од Бордот за безбедна имплементација на OpenAI. Иако ризикот од моделот сам по себе бил минимален, поентата е поинаква: ако не се почитуваат процесите за основни модели, што ќе биде кога технологијата ќе стане навистина опасна?

Таша Мекаули, поранешна член на бордот од непрофитниот дел на OpenAI, отиде уште подалеку. Таа сведочеше дека Сем Алтман, извршниот директор, ги изневерувал членовите на бордот, не ги известил за јавното пуштање на ChatGPT, и ги криел потенцијалните конфликти на интерес. „Ние сме непрофитен борд и нашиот мандат беше да го надгледуваме профитниот дел под нас”, изјави таа. „Немавме висок степен на доверба дека информациите што ни ги пренесуваа ни дозволуваа да донесуваме одлуки на информиран начин.”

Кога бордот се обиде да го отстрани Алтман во 2023 година, вработените се собраа околу него, Microsoft се вмеша, и одлуката беше повлечена. Тоа е сега документиран факт пред суд. „Ако сè се сведе на еден извршен директор кој донесува такви одлуки, а во прашање е јавното добро – тоа е многу субоптимално”, додаде Мекаули. Со други зборови: компанија која држи во рацете технологија со глобални импликации не треба да зависи од хирот на еден човек.

Експертскиот сведок за тимот на Маск, Дејвид Шизер, поранешен декан на Колумбија Лав Скул, го заостри прашањето: „OpenAI нагласи дека клучен дел од нивната мисија е безбедноста и дека ќе ја стават безбедноста пред профитот. Дел од тоа е сериозно сфаќање на безбедносните правила. Ако нешто треба да биде предмет на безбедносна евалуација, мора да се случи. Се работи за самиот процес.”

OpenAI одби да коментира за тековниот пристап кон AGI alignment, но потсети дека јавно ги споделува евалуациите на моделите и дека во февруари ангажираше нов шеф на подготвеност, Дилан Скандинаро, претходно од Anthropic. Тоа е институционален одговор на криза на доверба, но не и на структурно прашање. Зашто прашањето кое го поставуваат сведоците не е дали OpenAI има процеси – туку дали има волја да ги почитува кога ќе се судрат со рокови, инвеститори или политички притисоци.

За Балканот ова можеби звучи далечно, но е сè друго освен тоа. Истите модели стигнуваат и до нашите телефони, нашите училишта и нашите бизниси. Кога глобалната ВИ индустрија не може да ги почитува сопствените правила, регулаторите од Брисел до Скопје треба да си го постават едно прашање: ако луѓето кои ја создаваат технологијата не можат да ѝ веруваат на сопствената компанија, како би требало да ѝ веруваме ние?