Folgt man den politischen Debatten und erst recht den in den USA geplanten Investitionen von mehr als 500 Milliarden US-Dollar allein in diesem Jahr, so ist „künstliche Intelligenz“ eine wahrhaft „disruptive“, weil schlagartig alles verändernde Technologie. Zweifellos hat sie immense Auswirkungen auf Wirtschaft und Gesellschaft, ganze Branchen werden in Rekordzeit umstrukturiert, unzählige Jobs im sich bisher unverzichtbar wähnenden Mittelbau wegrationalisiert.
Ihr eigentliches Potenzial soll indes eine maschinelle Superintelligenz sein, die den Menschen in jeder Hinsicht haushoch überlegen wäre und nach Auffassung vieler nicht nur im Silicon Valley lediglich eine Frage der Zeit ist.
Diese Vorstellungen mögen als Geschäftsstrategien der Techkonzerne durchgehen, die Aufmerksamkeit für ihre Produkte erzeugen wollen, oder als Fantasien eines dunklen Posthumanismus. Ihnen liegen aber grundsätzliche Missverständnisse über Intelligenz, Bedeutung und Verstehen zugrunde, die der Architektur der sogenannten Großen Sprachmodelle wie ChatGPT unausweichlich eingeschrieben sind.
Denn die Large Language Models (LLMs) lassen sich als späte Umsetzung einer strukturalistischen Linguistik verstehen, die Wörter, Wortfolgen, Verteilung, Semantik und überhaupt Sprache nach Wahrscheinlichkeit statistisch erfassen, ohne irgendeinen Bezug zur Realität zu benötigen. Sie erzeugten „Sprache ohne Weltbezug“. So argumentiert das im Januar erschienene Buch „Large Language Kabbala“ des Informatikers Martin Warnke.
Der Band spannt auf 160 Seiten einen gewaltigen Bogen, der mit der Vorstellung einer künstlichen Superintelligenz gründlich aufräumt und deren theoretische Annahmen in weiten Teilen als magisches Denken im wörtlichen Sinn entlarvt. Warnke zeigt auf, wie am Beginn der KI in den 1950er- und 60er-Jahren der Versuch stand, neuronale Netze nach dem Vorbild des menschlichen Gehirns zu bauen, und wie irgendwann die Computerlinguistik übernahm.
Ihr intellektueller Vorläufer ist für Warnke der amerikanische Linguist Zellig Sabbettai Harris, der Sprache anhand statistischer Verteilungsmuster und Wahrscheinlichkeiten analysierte. Mit der Linguistik sei aus dem ursprünglichen Versuch, „Weltverhältnisse zu technisieren“, künstliche Spracherzeugung geworden, „linguistisch perfekt, zunehmend inzestuös und handgreiflich“. Dieser gehe es nur um statistische Korrelationen, niemals um Kausalitäten, die die Maschine „by design“ nicht erfassen könne. Dass Sprache ohne Weltbezug keine Erfindung des Silicon Valley ist, zeigt Warnke an der jüdischen Kabbala: Schon mittelalterliche Schriftgelehrte erzeugten Sinn allein aus der Kombination heiliger Texte – Sprache aus Sprache, ohne Rückbindung an eine Wirklichkeit außerhalb des Textes.
Der Autor ist als „Kulturinformatiker“ kein Technikskeptiker, ihm geht es nicht um dystopische Warnungen oder KI-Bashing. Er wendet sich aber gegen die Vorstellung einer „intelligenten“, denkenden Technik. Die KI habe alles gelesen, aber nichts verstanden. Würden lernende Systeme von Anfang an linguistisch gedacht, schreibt er, käme niemand auf die Idee, nach Intelligenz zu fragen. Die Sprache der Sprachmodelle sei zwangsläufig „gestohlen“, sie habe „weder Stimme noch Körper“, bleibe „syntaktische Mimikry“.
Neben seiner luziden Erklärung künstlicher Sprache ist das Hervorstechendste seines Buches vielleicht, wie er zentrale Annahmen postmoderner Medienwissenschaften abräumt, denen zufolge sich die Realität zwischen Technologie und Struktur aufzulösen drohe. Für Warnke markiert der fehlende Bezug zur Wirklichkeit die Grenzen einer Technologie, deren Macht eher in ihrer Über- und Fehleinschätzung liegt. Letztlich geht „Bedeutung eben doch nicht völlig in Grammatik auf“, schreibt er. „Trauen“ sollten wir der KI jedenfalls nicht.
Martin Warnke: „Large Language Kabbala“. Verlag Matthes & Seitz, Berlin 2026, 152 Seiten, 16 Euro