Skip to content

OpenAI vor Gericht in Kalifornien: Zeugen sagen aus, das Produkt habe die Sicherheit erstickt

1 Min. Lesezeit
Teilen

OpenAI steht vor Gericht in Kalifornien - nicht als Kläger, sondern als Beklagter in einem der größten Fälle der KI-Industrie. Elon Musk, früherer Mitgründer der Firma, klagt darauf, dass OpenAI seine ursprüngliche Mission - Sicherheit der KI und Nutzen für die Menschheit - zugunsten kommerzieller Interessen verraten habe. Und die Zeugen, die ausgesagt haben, helfen der Firma nicht.

Rosie Campbell, die 2021 zum AGI-Preparedness-Team stieß und 2024 ging, nachdem ihr Team zerschlagen wurde, beschrieb einen Prozess, in dem sich OpenAI vor ihren Augen wandelte. „Als ich anfing, war alles sehr forschungsorientiert und wir sprachen oft über AGI und Sicherheitsfragen", sagte sie aus. „Mit der Zeit wurde es eher eine produktorientierte Organisation." Übersetzt: Die Forscher wurden durch Marketer ersetzt. Das Super-Alignment-Team, eine der zentralen Sicherheitsabteilungen, wurde im selben Zeitraum geschlossen.

Campbell verwies auf einen konkreten Vorfall - Microsoft brachte GPT-4 in Indien über Bing auf den Markt, bevor das Modell überhaupt die Evaluierung des Sicherheits-Deployment-Boards von OpenAI durchlaufen hatte. Auch wenn das Risiko des Modells selbst minimal war, ist der Punkt ein anderer: Wenn die Prozesse für Basismodelle nicht eingehalten werden - was wird sein, wenn die Technologie wirklich gefährlich wird?

Tasha McCauley, ehemaliges Vorstandsmitglied der gemeinnützigen Sparte von OpenAI, ging weiter. Sie sagte aus, dass Sam Altman, der CEO, Vorstandsmitglieder hinters Licht führte, sie nicht über den öffentlichen Start von ChatGPT informierte und mögliche Interessenkonflikte verschwieg. „Wir sind ein gemeinnütziger Vorstand, und unser Mandat war, den profitorientierten Arm unter uns zu beaufsichtigen", sagte sie. „Wir hatten kein hohes Maß an Vertrauen darin, dass die Informationen, die sie uns gaben, uns informierte Entscheidungen erlaubten."

Als der Vorstand 2023 versuchte, Altman zu entfernen, scharten sich die Angestellten um ihn, Microsoft mischte sich ein, und die Entscheidung wurde zurückgenommen. Das ist nun eine vor Gericht dokumentierte Tatsache. „Wenn alles auf einen Chief Executive hinausläuft, der solche Entscheidungen trifft, und auf dem Spiel steht das Gemeinwohl - das ist sehr suboptimal", fügte McCauley hinzu. Mit anderen Worten: Eine Firma, die Technologie mit globalen Implikationen in den Händen hält, sollte nicht von der Laune eines einzelnen Mannes abhängen.

Der Sachverständige für Musks Team, David Schizer, früherer Dekan der Columbia Law School, schärfte die Frage: „OpenAI betonte, dass ein zentraler Teil ihrer Mission Sicherheit sei und sie Sicherheit vor Profit stellen würden. Dazu gehört, Sicherheitsregeln ernst zu nehmen. Wenn etwas Gegenstand einer Sicherheitsevaluierung sein soll, muss das passieren. Es geht um den Prozess selbst."

OpenAI lehnte einen Kommentar zum aktuellen Ansatz beim AGI-Alignment ab, erinnerte aber daran, dass Modellbewertungen öffentlich geteilt werden und dass im Februar ein neuer Leiter für Preparedness, Dylan Scandinaro, zuvor von Anthropic, eingestellt wurde. Das ist eine institutionelle Antwort auf eine Vertrauenskrise, aber nicht auf eine strukturelle Frage. Denn die Frage der Zeugen lautet nicht, ob OpenAI Prozesse hat - sondern, ob es den Willen hat, sie zu respektieren, wenn sie auf Deadlines, Investoren oder politischen Druck stoßen.

Für den Balkan mag das fern klingen, ist es aber nicht. Dieselben Modelle erreichen unsere Telefone, unsere Schulen und unsere Unternehmen. Wenn die globale KI-Industrie ihre eigenen Regeln nicht respektieren kann, sollten Regulatoren von Brüssel bis Skopje sich eine Frage stellen: Wenn die Menschen, die die Technologie schaffen, ihrer eigenen Firma nicht trauen können - warum sollten wir es?