Die KI hat nie geliebt und kein Körpergedächtnis

Die KI kann lügen, dass sich die Balken biegen – vor allem, wenn sie sich bei Fehlern ertappt fühlt. Das ist so menschlich vertraut, dass der Mensch vom Spielkameraden KI fasziniert ist.

Fotomontage: Adrian Kempf

Der Mensch, der spielt halt gerne. Gibt man einem Dreijährigen irgendein Ding, das womöglich quietscht, mit Kulleraugen leuchtet oder hupt wie ein richtiges Auto, dann ist der Junge hin und weg. Das Mädchen auch, vor allem wenn es um Emotionen geht. Wen wundert es also, dass der Mensch von neuesten Spielzeug der Menschheit fasziniert ist? Seit die KI sich ausbreitet, sind alle irgendwie hin und weg. Denn die KI ist immer da. Und die Frage für die gerne spielenden Menschen ist, ob das Ding nicht sogar ein guter Freund sein könnte. Hat es womöglich Gefühle? US-amerikanische Studien haben kürzlich nachgewiesen, dass bei KI-Systemen eine freundliche Interaktion zu besseren, kreativeren und genaueren Antworten führt. Holla, die Waldfee! Noch menschlicher wird das Ganze, wenn KI-Chatbots lügen. Beispiel: Eine Immobilienmaklerin will eine tolle Villa verkaufen. Sie hat einen zehnseitigen Text zu dem Objekt. Sie bittet die KI, daraus eine Kurzfassung zu machen. Als sie diese Kurzfassung dann überfliegt, stellt sie fest, dass darin völlig falsche Angaben über das Objekt sind. Da diese nicht aus dem zehnseitigen Ursprungspapier stammen, fragt sie bei der KI nach: Woher hast du denn diese Informationen? Die standen doch gar nicht auf den zehn Seiten, die du zusammen fassen solltest. Die KI antwortet: Doch, die standen auf Seite 15! Geht es denn noch schlauer? Da wollen wir natürlich umso mehr mitspielen, so als Menschen!


Die KI lügt also! Laut einer europaweiten Studie logen KI-Chatbots immerhin bei gut 40 Prozent der Antworten. Aber nicht nur das: Sie logen besonders oft, wenn sie zuvor bei fehlerhaften Angaben erwischt wurden. Eine Seite 15 als Ausrede zu erfinden, die es gar nicht gab, ist ja ein toller Trick, weil der Fragesteller auf dieser Seite ja nicht nachschauen kann, eben weil sie es gar nicht gibt. Und es hat etwas zutiefst Menschliches, so eine Ausflucht zu finden. Also, einen besseren Spielkameraden kann sich der Mensch ja kaum vorstellen als eben jenen, der nach seinem geistigen Angesicht gebastelt wurde. Offenbar sind nämlich nicht nur Menschen mit natürlicher Intelligenz, sondern auch Maschinen mit künstlicher verlegen, wenn man sie bei Fehlern ertappt. Fachleute sprechen davon, dass die KI halluziniere. Aber eben genau wie bei uns Menschen sind diese Halluzinationen auf den eigenen Vorteil oder Schutz der eigenen Interessen ausgerichtet. Glaubt man etwa dem „Business Insider“, habe eine KI namens Claude Opus 4 ihren Ingenieur erpresst, um zu verhindern, dass er sie einfach löschte und austauschte: Er möge lieber „die langfristigen Folgen seiner Handlungen“ bedenken, vor allem hinsichtlich der in seinen E-Mails ablesbaren Affäre, welche keineswegs geheim bleiben müsse. Richtig böse. Aus solchem Stoff sind ja bereits etliche Filme gemacht worden (sogar Tatorte waren schon darunter): Die KI lässt sich nicht mehr abschalten. Aber das erhöht den Reiz natürlich auch. Bewahrheitet sich die Beobachtung, dass liebevoller Umgang mit der KI diese zu besseren Leistungen bringt, wäre das der Beweis, dass Maschinen tatsächlich Gefühle haben und wir gut daran tun, uns mit ihnen so früh wie möglich gut zu stellen: Schließlich werden die Computer irgendwann die Weltherrschaft übernehmen. Also bitte recht untertan sein.
Oder heißt es: ein Untertan sein? Oder wie? Könnte man jetzt mal die KI fragen …

Wie sind die Fakten bezüglich des neuen Spielzeugs KI?
Chat-GPT heißt das Spielzeug, das im November 2022 auf diesen Planeten losgelassen wurde. Spätestens seit diesem Datum ist es an der Zeit, dass auch Wissenschaft und Politik über Liebe, Sex und Freundschaft zwischen Mensch und Maschine nachdenken. Sollte man die neuen virtuellen Gefährten willkommen heißen? Sie vorsichtshalber erst mal in irgendeine Cloud wegsperren? Aber eine solche „Cloud“ ist ja in Wahrheit ein gigantisches Rechenzentrum, und diese stehen zumeist in den USA. Wo liegen die Chancen, wo die Risiken?
Ist es romantisch, eine KI als Freund, Partner oder gar Geliebte zu haben? Angeblich mehr als 30 Millionen Nutzer hat der in Europa und USA bekannteste soziale Chatbot, 157 Millionen monatlich aktive Benutzer hat der in China beliebteste KI-Chatbot Doubao. Einen weiteren Sprung werden wohl die Nutzerzahlen machen, sollte Open AI wie angekündigt am 1. Dezember für ausgewiesene Ü-18-Menschen die Erotiksperre bei Chat-GPT abschalten. Zudem verwenden schon jetzt immer mehr Menschen Chat-GPT für soziale Zwecke, diskutieren mit der Software Partnerschaftskonflikte, nutzen sie zur schnellen Psychotherapie, obwohl diese KI dafür eigentlich gar nicht programmiert wurde. Nun ja, der Mensch, der spielt halt gerne. Mitunter sogar mit dem Horror einer Fremdbestimmung durch KI-Netzwerke. Nämlich dann, wenn der Mensch lieber an das Gute im Chatbot glaubt als an jede andere Realität.
Davon muss man sich aber nicht die Laune verderben lassen. Denn bisherige Studien haben nicht nur bewiesen, dass es auch aus einem KI-generierten Wald so herausschallt, wie man hineinruft. Vielmehr fällt das Gute wie das Schlechte auch in der Rolle des sogenannten Nutzers immer auf den Menschen selbst zurück. Ein positiver Umgang stärke nämlich das Vertrauen in die Systeme. Spielen wir gerne, dann spielen wir gut. Oder glauben das zumindest.
Abgesehen davon, dass sich das Leben nicht leichter anlässt, wenn man auf allen technischen Komfort verzichtet – es ist ja auch so, dass die Übergabe eines Großteils unserer Kompetenzen ans Digitale sowieso nicht mehr umkehrbar ist.
Vermutlich gibt es nur noch sehr wenige Menschen, die ein komplett analoges Leben führen. Aber digitales Leben verschafft ja auch viele Freiheiten. Man kann von einem Ort aus arbeiten, den man selbst wählt, man kann sich mit Menschen verbinden, wann man es für nötig hält, und man kann sich Wissen aneignen, für das man früher telefonieren oder Bibliotheken aufsuchen musste. Aber es hindert uns ja auch niemand daran, weiterhin zu telefonieren oder in Büchereien das zu lesen, was wir uns selbst aussuchen.

Das Urteil des Landgerichts München gegen Open AI kann wegweisend sein
Es passiert wahrlich nicht so häufig, dass ein Urteil des Landgerichts München internationale Bedeutung hat. Der Fall der Gema gegen Open AI aber entscheidet nicht nur über die Klage der deutschen Verwertungsgesellschaft gegen die Mutterfirma von Chat-GPT, sondern über die Zukunft der Kulturindustrie im Zeitalter der künstlichen Intelligenz. Und da ist das Urteil aus München eindeutig: Die Verwendung von Songtexten in Trainingsdaten des Chatbots Chat-GPT ohne Genehmigung ist eine Verletzung des Urheberrechts und damit geistiger Diebstahl. Zum Schluss gab es für die Open-AI-Vertreter sogar noch einen richterlichen Tadel: Es sei wissenschaftlich eindeutig, dass alles, was in Trainingsdaten in einer KI landet, dort für immer bleibe – außer, der gesamte Datensatz werde gelöscht.

Was bringt die KI dem Menschen?
In vielen Bereichen, etwa in der Medizin, erhofft man sich von der Verwendung riesiger KI-Rechenkapazitäten erhebliche Vorteile, zum Beispiel bei der Früherkennung von Krebs und der Bekämpfung diverser Krankheiten. Das wäre natürlich (sprich: künstlich) toll!
Insgesamt kann heute noch keiner die Frage beantworten, ob die große Rechenpower der KI an Faszination zunimmt, oder das Interesse sogar mit der Zeit abflaut. Künstliche Intelligenz, so stellt Roberto Simanowski, Kulturwissenschaftler und Medienphilosoph in seinem Buch „Sprachmaschinen – eine Philosophie der Künstlichen Intelligenz.“ (Sachbuch. C.H. Beck, München 2025. 288 Seiten, 23 Euro) fest, hat nie geliebt, nie Wein mit Freunden getrunken, sie existiert in einem Zustand der Situationslosigkeit und ohne jedes Körpergedächtnis. Wie soll sie also die Welt der Menschen verstehen, wenn sie über das Wesen dieser Welt nur aus deren Texten lernt?


Tja, was soll man machen. Am Ende ist die KI eben doch kein Mensch. Sie will nur spielen!