Hier erlaube ich mir jetzt mal eine persönliche Erinnerung: Es war im November 1997, als ich in Hamburg mit dem Zeitungsvorstand von Gruner+Jahr zusammen saß. Er sagte damals: „Das Baby braucht Milupa. Es braucht sehr, sehr viele Flaschen Milupa, damit es wachsen kann.“ Er meinte Geld, das sein Konzern tatsächlich reichlich hatte. Dies sollte in meine Idee und meine Zeitung investiert werden, deren Grundidee war, dass sie – obwohl journalistisch hochwertig – für die Leser gratis sein würde, aber dann aufgrund ihrer großen Reichweite über Anzeigen von Werbekunden ihr Geld verdienen würde – wenn sie mal erwachsen wäre. Und jetzt, im Juni 2025, soll wieder ein Baby gut aufgepäppelt werden. Es wird allerdings nicht mit Geld gefüttert, sondern mit Daten. Denn es geht um „Meta“, das mit den Daten von seinen Content-Plattformen seine eigene KI „Meta AI“ verbessern will. Das ist eine mehr oder weniger intelligente Chatbot-Hilfe, erkennbar an dem blauen Kreis, den Nutzer seit März zum Beispiel in Whatsapp oder ihrer Instagram-Nachrichtenübersicht sehen. Für „Meta“ ist es die nächste Stufe seines Datengeschäfts: Eine beliebte Gratis-Dienstleistung – soziale Vernetzung über die Plattformen – liefert Daten, die die Konzern-KI mächtiger machen. Die soll dann wiederum die Produkte verbessern. Geld verdient „Meta“ mit Anzeigen auf seinen Plattformen. Und ja, daran fanden deutsche Richter nichts auszusetzen.
Das OLG Köln hat nämlich einen Antrag von Verbraucherschützern abgelehnt, „Meta“ den Einsatz etwa von Facebook-Daten fürs KI-Training zu untersagen. Um was ging es dabei? „Meta“ will die Daten aller volljährigen europäischen Nutzer von Facebook und Instagram für das Training eigener KI-Anwendungen wie dem großen Sprachmodell LLaMA einsetzen. Der US-Konzern nimmt sich dabei heraus, sowohl alle künftig anfallenden Daten als auch solche aus der Vergangenheit zu verwenden. Wer das nicht will, muss der Nutzung persönlicher Daten und Bilder für diese Zwecke ausdrücklich widersprechen. Die Kölner Richter stellten nach „vorläufiger und summarischer Prüfung“ fest, dass weder ein Verstoß von „Meta“ gegen die Datenschutz-Grundverordnung (DSGVO) noch gegen den Digital Markets Act (DMA) vorliege. „Meta“ verfolge mit der Verwendung zum KI-Training einen legitimen Zweck. Dieser könne nicht durch gleich wirksame andere Mittel, die weniger einschneidend wären, erreicht werden. Unzweifelhaft würden für das Training große Datenmengen benötigt, die nicht zuverlässig vollständig anonymisiert werden könnten. Im Rahmen der Abwägung der Rechte von Nutzern und der Betreiberin überwögen die Interessen an der Datenverarbeitung. Nutzer seien schon voriges Jahr informiert worden und konnten widersprechen.
Was will „Meta“ entwickeln?
Die neue Funktion hat in Form eines blauen Kreises inzwischen in Facebook, Instagram, Messenger, WhatsApp und Threads Einzug gehalten. Mit dem KI-Assistenten ist es etwa möglich, Texte zu übersetzen, Alltagsfragen beantworten zu lassen oder sich Ausgehtipps zusammenstellen zu lassen.
Nun möchte „Meta“ die KI speziell für Europa trainieren. Dazu sollen die öffentlichen Daten von europäischen Nutzern genutzt werden, sofern diese nicht widersprechen. „Meta“ argumentiert, dass für das Training die Daten der europäischen Nutzerinnen und Nutzer notwendig seien, damit „Meta AI“ Dialekte, spezifisches Wissen über europäische Gepflogenheiten und auch den lokalen Humor lernen könne. Die Informationen, an die „Meta“ nun ran will, würden es der KI ermöglichen, auch europäisch zu denken, heißt es vom Konzern. Mit den Daten der Europäer werde man „Millionen Menschen und Unternehmen in der EU besser unterstützen, indem Meta AI lernt, europäische Kulturen, Sprachen und Geschichte besser zu verstehen und wiederzugeben“.
Aber im Grunde geht die Idee noch viel weiter. Mark Zuckerberg stellt sich vor, seine Maschinen zu einfühlsamen Gesprächspartnern für Menschen zu machen. In einer alternden Bevölkerung ist das gar keine so schlechte Idee. Denn Einsamkeit ist schon jetzt ein großes gesellschaftliches Problem, und warum sollte ein Haustier für eine persönliche Ansprache besser geeignet sein als eine KI? Die Katze macht ja sowieso lieber, was sie will. Der Hund kann im Alter eher zur Belastung werden. Von Fischen in Aquarien oder Vögeln in Käfigen ganz zu schweigen. Und es ist ja gar nicht so, dass der Mensch nicht weiß, was „künstlich“ ist und was nicht. Jeder, der beispielsweise eine Fitness-App täglich füttert, etwa in Verbindung mit einer Apple-Watch, kann es durchaus schätzen, dass er personenbezogene Hinweise kriegt. Lob und so. Manchmal auch der Tadel: „Achte auf deine Ringe!“ Das verwechselt natürlich keiner mit echtem menschlichem Feedback. Hat aber trotzdem etwas durchaus Kommunikatives.
Bei der telefonischen Beratung von Kunden etwa sind Chatbots laut einer Studie im Fachblatt Nature Human Behaviour in etwa 64 Prozent der Fälle überzeugender als eine reale Person. Vorausgesetzt, der Bot wurde mit persönlichen Informationen seines Gesprächspartners gefüttert. Chatbots und andere autonome Maschinen können durch Schwarmintelligenz immer schlauer werden, und dafür müssen sie nun mal mit Daten gefüttert werden. Google Maps funktioniert deshalb so gut, weil es so viele Nutzer hat und entsprechende Mengen an Sensordaten verknüpfen kann. Künstliche Intelligenz geht aber noch einen Schritt weiter. Wenn solche Assistenten auf persönliche Informationen etwa aus E-Mails oder Chats zugreifen, können sie ihrem menschlichen Gegenüber noch mehr ihre Unverzichtbarkeit vorgaukeln.
Und so geht der „Traum“ von Zuckerberg und Co. in die Richtung, dem Menschen einen bestens trainierten „Freund“ (m/w/d) zur Verfügung zu stellen, quasi in allen Lebenslagen. Diese Idee ist als solche nicht schlecht. Gib mir alle deine Daten, und daraus lese ich deine Wünsche, deine Stärken und Schwächen, um dir zur Seite zu stehen. Solange damit kein Missbrauch betrieben wird, hat das durchaus eine soziale Komponente. Wie es ja ebenfalls unbestreitbar ist, dass die KI in vielen Bereichen, wie etwa der Medizin, große Dienste leisten kann.
Desto größer der Nutzen, desto größer das Risiko
Kritisch sehen kann man allerdings vier übergeordnete Bereiche: 1. Die unfassbare Geschwindigkeit, mit der sich die KI verbreitet. 2. Die riesige Menge an Energie, die KI-Rechner verbrauchen. 3. Die potentielle Ungerechtigkeit bezüglich der Vernichtung von Jobs. 4. Die Konzentration von Macht (und Geld) in den Händen von sehr wenigen Leuten.
Es ist womöglich Zeit, vom Gas zu gehen beim Befüttern dieser Systeme. Die Technologie entwickelt sich rasch – zu rasch – und wird schon breit eingesetzt. Marktführer Chat-GPT hatte Angaben des dahinterstehenden Unternehmens zufolge im vergangenen Dezember mehr als 300 Millionen Nutzer, im Februar sollen es bereits mehr als 400 Millionen gewesen sein.
KI-Systeme entwickeln sich unter der Hand bereits von ursprünglichen „Chatbots“ zu „Agenten“. Mittels der Kameras und Mikrofone von Smartphones können sie sprechen, hören und sehen. Sie können Entscheidungen treffen, passen sich an ihre Nutzer an und lernen sie immer besser kennen. Aber nicht immer zu ihrem Vorteil.
Der Umwälzung von Gesellschaft und Arbeitsmarkt kündigt sich an. Im aktuellen Report des Weltwirtschaftsforums sagen 40 Prozent der Arbeitgeber, dass sie durch KI ihre Belegschaft, wo möglich, bis 2030 reduzieren werden. 2023 schätzte Goldman Sachs, dass dank KI bis zu einem Viertel aller Arbeitsplätze in Europa und den USA überflüssig wird. Weltweit würden 300 Millionen Jobs wegfallen.
Der neue Papst Leo XIV sagte, die KI sei „eine Herausforderung für Menschenwürde, Gerechtigkeit und Arbeit.“ Der KI-Pionier und Branchenkritiker Gary Marcus kommentierte: „Während sich wenige Politiker derzeit wirklich Gedanken über KI machen, hat es Papst Leo XIV. kapiert.“ Tja, es ist halt noch immer die Frage, wer wie viele Flaschen Milupa wofür aufwendet.