Skip to content

Meta wird KI zur Analyse von Größe und Knochenstruktur einsetzen, um minderjährige Nutzer zu erkennen

1 Min. Lesezeit
Teilen

Meta hat angekündigt, künstliche Intelligenz zur Analyse von Fotos und Videos auf Facebook und Instagram einzusetzen - mit dem Ziel, festzustellen, ob ein Nutzer unter 13 Jahre alt ist. Das System wird „allgemeine visuelle Signale" wie Körpergröße und Knochenstruktur des Gesichts im Bild analysieren.

Das Unternehmen zog sofort eine Unterscheidung: Das ist keine Gesichtserkennung. „Wir wollen es klar sagen: Das ist keine Gesichtserkennung. Unsere KI schaut auf allgemeine Themen und visuelle Hinweise, etwa Größe oder Knochenstruktur, um das allgemeine Alter einzuschätzen; sie identifiziert kein konkretes Gesicht", heißt es in der Mitteilung.

Das System arbeitet nicht isoliert. Es kombiniert visuelle Signale mit der Analyse von Text und Interaktionen - Geburtstage, Erwähnungen der Schule, Beiträge, Kommentare, Biografien. Kommt der Algorithmus zu dem Schluss, dass der Nutzer minderjährig ist, wird das Profil deaktiviert. Will der Nutzer es behalten, muss er einen Altersverifikationsprozess durchlaufen.

Um zu verstehen, warum Meta plötzlich so besorgt um den Schutz von Kindern ist, genügt eine Zahl - 375 Millionen Dollar. So viel muss das Unternehmen nach dem Urteil einer Geschworenenjury in New Mexico zahlen, weil es Verbraucher über die Sicherheit der Plattform getäuscht und Kinder gefährdet hat. Es ist wohl kein Zufall, dass in der Folgewoche neue Maßnahmen folgen.

Meta erweitert gleichzeitig die „Teen Accounts" in 27 EU-Staaten und in Brasilien, ein ähnliches Regime wird auch auf Facebook in den USA, im Vereinigten Königreich und in der EU eingeführt. Teenager-Konten haben Nachrichtenbeschränkungen auf Follower, Filter für belastende Kommentare und private Standardeinstellungen.

Die Frage für uns auf dem Balkan ist einfach: Ein Algorithmus, der mit Hilfe von Körpergröße und Knochenstruktur entscheidet, ob du minderjährig bist - ist das eine Technologie, die funktioniert, oder eine, die „gut genug" funktioniert, um Klagen zu vermeiden? Und noch wichtiger - auf wessen Server gehen diese Fotos? Meta behauptet, keine konkreten Personen zu identifizieren. Doch genau dasselbe Unternehmen, das jahrelang zugesehen hat, wie seine Plattform die psychische Gesundheit von Jugendlichen ruinierte, verlangt jetzt Vertrauen auf Wort.