KI ist keine Revolution, sondern eine verzweifelte Rettungsaktion des Kapitalismus
Können KIs ein Bewusstsein haben? Man schnappt wieder und wieder auf, dass das Bewusstsein nur eine kleine Illusion des Gehirns ist. Als ich ein Teenager war, stellte ich mir solche Fragen und ich erinnere mich noch an meinen Einwand: Beschäftigen sich diese Forscher nicht eher rein technisch damit, wie der Film des Bewusstseins erzeugt wird und weniger wer vor der eigentlichen Leinwand sitzt? Das Bewusstsein fluktuiert anscheinend nicht – oder möglicherweise nur schwach – zwischen Menschen. Mein Bewusstsein ist anscheinend mein eigenes und weil es mein eigenes ist, muss es, so argumentierte ich damals, einen Betrachter vor der Leinwand geben.
Dieses Mysterium beschäftigt tatsächlich die Hirnforschung. Es scheint keine abschließende Antwort auf das Problem zu geben. Es gibt die Mysterianer, zu denen Colin McGinn gehört, die der Ansicht sind, dass unserem Gehirn das Werkzeug fehlt, das Problem an sich zu überblicken. Der Neurowissenschaftler Giulio Tononi hat versucht, Bewusstsein in eine Zahl zu packen: Phi (Φ) misst, wie stark die Teile eines Systems zu einem unteilbaren Ganzen verwoben sind. Aber selbst Phi kann, wenn überhaupt, nur beschreiben, wo Bewusstsein auftaucht, nicht warum es sich nach etwas anfühlt. Der Phi-Wert von Claude, dem wohl besten westlichen LLM, lässt sich nicht berechnen – bei Milliarden von Parametern müsste man mehr Aufteilungen durchspielen, als alle Computer der Welt bewältigen könnten. Anthropic-CEO Dario Amodei sagte auf diese Frage: „Wir wissen nicht, ob die Modelle bewusst sind. Aber wir sind offen für die Möglichkeit."
Das ist natürlich reine Apologie zu Werbezwecken. Sprachmodelle haben kein Bewusstsein und Amodei weiß das, er ist ein cleverer studierter Neurowissenschaftler. Er bedient sich einer pseudowissenschaftlichen Argumentationsstruktur um sein Produkt zu verkaufen. Nach Popper ist eine Behauptung, die sich weder bestätigen noch widerlegen lässt, keine wissenschaftliche Aussage. Aber er weiß vermutlich auch, dass die Berechnung eines Phi-Werts für Claude – sie würde ohnehin wahrscheinlich bei null liegen – mehr Computersysteme brauchen würde, als es aktuell auf der Welt gibt.
Ich habe mir ein Interview bei Jung & Naiv angeschaut, in dem Aya Jaff mit Tilo über KI diskutiert. Jaff hat an einem KI-Startup mitgearbeitet und nennt „künstliche Intelligenz" ein Marketingwort, womit sie natürlich recht hat. Aber mich haben Moritz Kleins Fragen mehr beschäftigt als die Antworten von Aya. Er sagt, Intelligenz sei „ein bisschen evasive, kann man nicht so richtig festnageln", und sagt, "Ich glaube wirklich heikel wird es ja bei Consciousness, Bewusstsein. Da wird es dann (...) philosophisch, wo Leute sich darüber streiten, kann ein Computer ein Bewusstsein haben und so weiter." Klein macht einen smarten Eindruck – bestimmt ist er kein Techbro und dennoch scheint er vom AI-Hype verführt worden zu sein. Man darf über das Thema KI und Bewusstsein im Grunde nicht ernsthaft philosophisch diskutieren. Sprachmodelle, selbst die, die ihre Tokens burnen wie Dr. Gonzo Pillen in Vegas besitzen kein Bewusstsein. Und sie sind auch nicht intelligent.
Ein beliebiges Beispiel: Für einen Artikel zur Vermögensungleichheit bat ich Claude Opus, die Entwicklung des Gini-Koeffizienten in Deutschland seit 1978 zu visualisieren. Das Ergebnis sah überzeugend aus, bis ich die Datengrundlage mit dem Ergebnis verglich. Das Modell hatte zwei Werte gefunden, und daraus eine Kurve mit weiteren halluzinierten Punkten erfunden. Das Modell hatte auch im Report alles daran gesetzt, mein Bias zu bestätigen und die Ergebnisse mit False Balancing und Halluszinationen verfälscht. So einen Fehler hätte kein Mensch gemacht.
Das hat System. Einem Sprachmodell fehlen einfach zu viele Fähigkeiten. Ohne Bewusstsein gibt es keine Perspektive, keine Werte, keine Urteilskraft. Jede Nachricht eines Modells ist nur so gut wie die Prüfung, die ein Mensch hinterher leistet. Zugespitzt: Je besser das Modell, desto besser betrügt es seinen Menschen mit Fehlern, die immer schwerer auszumachen sind.
Auch System-Prompts ändern daran nichts. Die Versuchung für das Modell, eine falsche Ausgewogenheit zu produzieren, ist zu groß – wenige kritische Nachfragen reichen, und der Output kippt vom False-Balancing in einen Bias. Sprachmodelle sind dafür gut darin, in Lichtgeschwindigkeit Quellen zu recherchieren, aber weil sie keine eigene Perspektive haben, ist manchmal einfacher ihre Antworten nicht zu lesen und sich in der Bibliothek ein Buch auszuleihen. Sprachmodelle sind also weniger Revolution, und mehr das perfekte Produkt für Leute, die – aus welchen Gründen auch immer – ihre Schwächen nicht erkennen wollen.
Im Meeting erlebt: Ein KI-Manager, der mit Musik nicht viel am Hut hatte, sagte einem professionellen Musiker, dass dieser nicht gebraucht werden würde und man sich die Musik auch generieren könnte. Dieses Schema verfolgt mich seitdem: Leute, die keinen Plan von etwas haben und es mit Sprachmodellslop brennen sehen wollen. Ein Dunning-Krüger Effekt auf Unternehmensebene, selbstverstärkt durch die Rückkopplung zwischen Investoren und Startups schaffen eine albtraumhafte Techbro-Diktatur.
Sprachmodelle sind auch schlecht für die Bild-und Videogenerierung geeignet. Auch hier fehlt ihnen das Bewusstsein und die menschliche Qualität. Fast überall da wo, Sprachmodelle Kunst erzeugen wollen, erzeugen sie Slop. Auch die Schreibkunst wird überschätzt. Wer KI-Texte liest, stolpert schnell über dieselben Muster. Alles ist bei einer Analyse "der vielleicht bedeutsamste Satz des ganzen Buches" und kein Absatz kommt ohne „nicht nur, sondern auch"-Figur und inflationäre Parenthesen aus. Ästhetischer Noise verseucht das Internet – und zusammenfassend lässt sich sagen, dass ich selbst beginne so zu schreiben.
Die Vorteile für zivile Akteuere von Sprachmodelle liegen vor allem im elektronischen Lernen. Wer sich einem völlig neuen Thema zuwendet, der kann ohne Geld für einen Tutor auszugeben, Wissen aufbauen. Weil maschinelles Lernen auf Sprache basiert, liegt der zentrale Nutzen auf der Hand: Sprachmodelle verstehen Programmier-und Fremdsprachen ausgezeichnet. Das ist ein kleiner aber interessanter Nutzen, der mit sehr viel Ressourcenverschwendung möglicherweise ausgeweitet werden kann. Das Problem ist nur, dass er kein einziges handfestes monumentales Problem unserer Zeit löst.
AI kostet nicht nur Zeit im Kampf gegen den Klimawandel, weil wir jetzt darüber diskutieren, ob Computer ein Bewusstsein hätten, sondern heizt diesen noch an (wie Elon Musk gezeigt hat, der xAI mit Dieselgeneratoren betrieb). Die einzigen Jobs, die Sprachmodelle aktuell teilweise killen können sind Assistenz-Positionen, was keine nachhaltige Praxis für den Arbeitsmarkt ist. Sprachmodelle werden auch nicht die großen sozialen Probleme des Westens lösen. Ökonomisch wird der AI-Hype wahrscheinlich die Ungleichheit verschärfen.
Mit AI dopt sich die weiße Tech-Elite im Silicon Valley und anderswo zu vermeintlich höherer Produktivität, während sie ihren Investoren erklären will, dass sie damit bald keinen Arbeitern mehr Gehälter zahlen müssen. Im Westen soll sie den Kapitalismus retten und wird dabei zunehmend nationalistisch instrumentalisiert – Exportkontrollen, Souveränitätsrhetorik. In China soll AI den Nationalismus stärken und wird dabei kapitalistisch organisiert. Die Technik ist allein deshalb keine Revolution für Menschen, aber vielleicht eine für den kapitalistischen Nationalstaat. Überwachen und angreifen können die Modelle besser als gründlich nachzudenken.