Meta ist nicht mehr unser Freund
Der US-Konzern Meta will seine KI mit Daten von EU-Nutzern trainieren.
Quelle: Jens Büttner/dpa
Jahrelang haben wir unsere persönlichsten Momente mit Freunden auf Facebook und Instagram geteilt. Jetzt will der Meta-Konzern damit seine Künstliche Intelligenz trainieren. Es lohnt sich, dem zu widersprechen, kommentiert Matthias Schwarzer. Der Konzern hat zuletzt massiv Vertrauen verspielt.
Der KI-Chatbot des US-Konzerns Meta, der seit Kurzem in Diensten wie Instagram, Whatsapp und Facebook verfügbar ist, soll bald verstehen, wie die Europäer ticken. Er soll Dialekte kennenlernen, lokale Eigenarten sowie regionalen Humor und Sarkasmus. Dafür will ihn der Konzern ab dem 27. Mai mit den öffentlich verfügbaren Daten seiner Nutzerinnen und Nutzer in der EU trainieren. Also etwa mit Beiträgen, Fotos und Kommentaren, die man über die Jahre gepostet hat.
Vom Grundprinzip ist das keine schlechte Idee: Bislang werden die meisten sogenannten Large-Language-Modelle (LLM), auf denen auch der Meta-Bot basiert, von US-amerikanischen Tech-Konzernen mit amerikanischen Daten trainiert. Andere große Modelle, etwa Deepseek, stammen aus China. Sie alle vermitteln also auch eine gewisse Weltanschauung. Je mehr kulturelle Vielfalt Einzug in die Trainingsdaten hält, desto besser wird letztendlich auch der Chatbot.
Die Frage ist nur: Will man ausgerechnet Meta dabei helfen, seine Dienste besser und letztendlich erfolgreich zu machen? Die jüngsten Ereignisse geben zumindest Anlass, das mal zu überdenken.
Im Januar hatte Firmenchef Mark Zuckerberg eine radikale Kehrtwende in der eigenen Unternehmenspolitik verkündet, wozu auch eine Änderung der Community-Regeln gehörte. Diese erlauben es neuerdings, LGBTQ-Personen auf Instagram und Facebook in den USA © Solinger Tageblatt
