Notizen
KI ist keine Revolution Warum "neutraler" Journalismus autoritär wäre Zur Nekropolitik

KI ist keine Revolution

Können KIs ein Bewusstsein haben?

KI ist keine Revolution

Ich war ein Y2K-Teenager und bewunderte während der Nuller die Gadgets des Westens. Ich besaß alles Mögliche zum Spielen. Auf den solarbetriebenen Taschenrechner folgte die F91W. Aber am meisten begeisterte mich ein echtes Monstrum: Die Casio Pro Trek PRT-60. Heute habe ich eine fast unbenutzte PRT-60 in einem Paket erhalten. Ein Kreis schloss sich für mich, denn als Kind konnte ich sie nur aus der Ferne bewundern. Ihr eingebautes Barometer wird mich bestimmt einmal während einer langen Wanderung vor einem Taifun retten. Seit den ersten Tagen dieser Gadgets haben wir es als Menschheit weit gebracht. Ist der Weg vom solarbetriebenen Taschenrechner bis zur intelligenten Maschine nur ein kleiner Schritt?

Man schnappt wieder und wieder auf, dass das Bewusstsein nur eine Innovation des Gehirns sein könnte. Als ich ein Teenager war und mit den Y2K Gadgets spielte, stellte ich mir solche Fragen und ich erinnere mich noch an meinen Einwand: Klären die meisten Forscher nicht eher rein technisch, wie der Film des Bewusstseins erzeugt wird und weniger wer vor der eigentlichen Leinwand sitzt? Das Bewusstsein fluktuiert anscheinend nicht – oder möglicherweise nur schwach – zwischen Menschen. Mein Bewusstsein ist anscheinend mein eigenes und weil es mein eigenes ist, muss es, so argumentierte ich damals, einen Betrachter vor der Leinwand geben.¹

Diese Mysterien beschäftigen tatsächlich die Hirnforschung und es scheint keine überzeugende Antwort auf das Problem zu geben. Es gibt die Mysterianer, zu denen Colin McGinn gehört, die der Ansicht sind, dass unserem Gehirn das Werkzeug fehlt, das Problem¹ an sich zu überblicken. Der Neurowissenschaftler Giulio Tononi hat versucht, Bewusstsein in eine Zahl zu packen. Ein Wert namens Phi (Φ) misst, wie stark die Teile eines Systems zu einem unteilbaren Ganzen verwoben sind. Aber selbst Phi kann, wenn überhaupt, nur beschreiben, wo Bewusstsein auftaucht, nicht warum es sich nach etwas Bewusstem für jemanden anfühlt. Der Phi-Wert eines Sprachmodells wie Claude, einem der besten westlichen LLMs, lässt sich gar nicht erst berechnen – bei der Komplexität des Modells müsste man mehr Aufteilungen durchspielen, als alle Computer der Welt bewältigen könnten. Dario Amodei von Anthropic sagte auf diese Frage: „Wir wissen nicht, ob die Modelle bewusst sind. Aber wir sind offen für die Möglichkeit."

Aber das ist natürlich reine Apologie zu Verkaufszwecken.² Sprachmodelle haben kein Bewusstsein und Amodei weiß das auch, er ist ein cleverer studierter Neurowissenschaftler. Er bedient sich einer pseudowissenschaftlichen Argumentationsstruktur um sein Produkt zu bewerben. Nach Popper ist eine Behauptung, die sich nicht widerlegen lässt, keine wissenschaftliche Aussage. Amodei weiß vermutlich auch, dass die Berechnung eines Phi-Werts für Claude – er würde ohnehin wahrscheinlich bei null liegen – mehr Computersysteme brauchen würde, als es aktuell auf der Welt gibt.

Ich habe mir ein Interview bei Jung & Naiv³ angeschaut, in dem Aya Jaff mit Tilo über KI diskutiert. Jaff hat an einem KI-Startup mitgearbeitet und nennt „künstliche Intelligenz" ein Marketingwort, womit sie natürlich recht hat. Aber mich haben Moritz Kleins Fragen mehr beschäftigt als die Antworten von Aya. Er sagt, Intelligenz sei „ein bisschen evasive, kann man nicht so richtig festnageln", und ergänzt, "Ich glaube wirklich heikel wird es ja bei Consciousness, Bewusstsein. Da wird es dann (...) philosophisch, wo Leute sich darüber streiten, kann ein Computer ein Bewusstsein haben und so weiter." Klein macht einen smarten Eindruck – er ist bestimmt kein Techbro – und dennoch scheint er vom AI-Hype verführt worden zu sein. Man darf über das Thema KI und Bewusstsein im Grunde nicht ernsthaft philosophisch diskutieren. Sprachmodelle, selbst die, die sich Tokens einschmeißen wie Dr. Gonzo Pillen in Vegas, besitzen kein Bewusstsein. Und sie sind auch nicht intelligent.

Ein beliebiges Beispiel: Für einen Artikel zur Vermögensungleichheit bat ich Claude Opus, die Entwicklung von Ungleichheitsfaktoren in Deutschland seit Ende der siebziger Jahre zu visualisieren. Das Ergebnis sah überzeugend aus, bis ich die Datengrundlage mit dem Resultat verglich. Das Modell hatte für einen Chart nur zwei Werte ermitteln können, und daraus eine Kurve mit weiteren halluzinierten Punkten erfunden. Das Modell hatte auch im Report alles daran gesetzt, meinen Bias zu bestätigen und die Ergebnisse mit False-Balancing und Halluzinationen verfälscht. Menschen machen haarsträubende Fehler. Aber so einen Fehler hätte kein Mensch gemacht.

Das hat System. Ein Sprachmodell hat beeindruckend viele Informationen im Training erhalten, aber ihm fehlen einfach zu viele Fähigkeiten, die wir mit Intelligenz in Verbindung bringen. Ohne Bewusstsein gibt es keine Perspektive, keine Werte, keine Urteilskraft. Genau so, wie niemand behaupten würde, dass die Website von Wikipedia intelligent sei, nur weil sie viel Wissen speichert. Aber bei LLMs kommt etwas dazu: Je besser das Modell, desto besser betrügt es seinen Menschen damit intelligent zu erscheinen, während seine Fehler immer schwerer auszumachen sind. Dadurch entsteht für den Menschen in der Theorie mehr Arbeit und nicht weniger. Auch Prompt-Engineering ändert daran nichts.

Die Versuchung für das Modell, beispielsweise eine falsche Ausgewogenheit zu produzieren, ist sehr groß – wenige kritische Nachfragen reichen dann aber, und der Output kippt vom False-Balancing in einen Bias. Das zu überblicken verursacht Arbeit. Sprachmodelle sind gut darin, in Lichtgeschwindigkeit Quellen zu recherchieren, aber weil sie keine Urteilskraft besitzen, ist es manchmal für Menschen das zeitsparendere Vorgehen, ihre Antworten nicht zu lesen und in der Onlinebibliothek Bücher oder Studien abzurufen. LLMs sind also weniger Revolution, und mehr das perfekte Produkt für Leute, die – aus welchen Gründen auch immer – ihre inhärenten Schwächen nicht erkennen wollen oder können.

Im Meeting erlebt: Ein KI-Manager, der mit Musik nicht viel am Hut zu haben schien, sagte einem professionellen Musiker, dass dieser nicht gebraucht werden würde und man sich die Musik auch generieren könnte. Das tat er kurzerhand und irgendwas in seinem Computer dudelte. Das war weniger kopernikanische Kränkung als vielmehr eine Demütigung, die jeglichen Humanismus in die Mülltonne trat. Dieses Schema verfolgt mich seitdem: Leute, die kein Korrektiv und keine Ahnung von etwas haben und mit Sprachmodellslop alles brennen sehen wollen, entdecken das Konzept der westlichen Teleologie für sich. Ein Dunning-Krüger Effekt auf Unternehmensebene, verstärkt durch die Rückkopplung zwischen Investoren und Startups erschafft eine selbstprophezeiliche Techbro-Diktatur.

Generative KI – genauer an dieser Stelle – Diffusionsmodelle sind besonders schlecht für das Bild-und Videodesign geeignet. Auch hier fehlt ihnen das Bewusstsein und die menschliche Qualität. Fast überall da, wo KI Kunst erzeugen soll, erzeugt sie Slop. Aber auch die Kernkompetenz von Sprachmodellen – ihre Schreibkunst – wird überschätzt. Wer KI-Texte liest, stolpert schnell über dieselben Muster. Alles ist bei einer Analyse "der vielleicht bedeutsamste Satz des ganzen Buches" und kein Absatz kommt ohne „nicht nur, sondern auch"-Figur und inflationäre Parenthesen aus. Dieser Noise verseucht das Internet – und zusammenfassend lässt sich sagen, dass ich selbst beginne so zu schreiben. Eine Parenthese macht man übrigens mit Option + -.

Der demokratisierende Vorteil für Nutzer von Sprachmodellen ist fast ausschließlich das E-Learning. Wer sich einem völlig neuen Thema zuwendet, der kann ohne Geld für einen Tutor auszugeben, günstig Wissen aufbauen. Dazu hilfreich ist insbesondere ein echtes menschliches Buch als PDF im Kontextfenster des Modells. Weil die gehypten LLMs auf Sprache basieren, verstehen sie auch Programmier-und Fremdsprachen ausgezeichnet. Das ist ein kleiner und interessanter Nutzen, der mit sehr viel Ressourcenverschwendung möglicherweise ausgeweitet werden kann. Sein Makel ist nur, dass er kein einziges handfestes Problem unserer Zeit löst.

AI kostet nicht nur Zeit im Kampf gegen den Klimawandel, weil wir jetzt wie Kinder darüber philosophieren, ob Computer ein Bewusstsein haben könnten. Es heizt diesen noch an, wie Elon Musk gezeigt hat, der xAI mit Dieselgeneratoren betrieb. Die Jobs, die Sprachmodelle aktuell teilweise ersetzen sind Assistenz-Positionen, was keine nachhaltige Praxis für den Nachwuchs im Arbeitsmarkt ist. Die Automatisierung unangenehmer körperlicher Arbeit wäre nützlicher, ist aber ein Designproblem. Es wäre möglicherweise sinnvoller, eine Welt gezielt für Roboter mitzugestalten, als den Algorithmen unsere Welt anzutrainieren. ⁴

Sprachmodelle werden auch nicht die großen sozialen Probleme des Westens lösen. Ökonomisch wird der AI-Hype wahrscheinlich die Ungleichheit verschärfen. Das liegt allein schon daran, dass die Produkte in der Regel in proprietäre SAAS-Lösungen eingesperrt sind.⁵

Mit AI dopt sich die weiße Tech-Elite im Silicon Valley zusammen mit White-Collars zu vermeintlich höherer Produktivität, während sie Investoren erklären will, dass diese so bald keinen Arbeitern mehr Gehälter zahlen bräuchten. Im Westen soll AI gleichzeitig die Bezahlung von Arbeitern abschaffen und den Kapitalismus retten und wird dabei zunehmend nationalistisch instrumentalisiert. In China sollen Sprachmodelle den Nationalismus stützen und werden kapitalistisch organisiert. Die Technik ist allein deshalb keine Revolution für Menschen, aber vielleicht eine des kapitalistischen Staates. AI ist – sieht man von Kollateralschäden durch ständige Halluzination einmal ab – hervorragend im Sortieren, Erkennen und Klassifizieren. Für Staatschefs klingt das wie ihresgleichen. Überwachen und angreifen können die Modelle besser als einmal kurz nachzudenken.



¹ Er bezieht sich allerdings auf das Hard Problem Of Consciousness, das wahrscheinlich eher der Überbegriff meines Leinwandbeispiels ist, über das man eher als Privacy of Consciousness diskutieren würde. Bekannt ist außerdem der Aufsatz "What Is It Like To Be A Bat" von Thomas Nagel, der sich mit der subjektiven Erfahrung des Bewusstseins für die Bewussten beschäftigt.
https://rintintin.colorado.edu/~vancecd/phil201/Nagel.pdf

² Dieser Denkanstoß kann nicht viel beweisen. Es könnte z.B. trotzdem der Fall sein, dass alle Menschen um mich herum Simulationen sind. Aber es ist ein Problem, das jeder als Problem verifizieren kann. Darüber zu diskutieren, dass Sprachmodelle ein Bewusstsein haben können ist dagegen unwissenschaftlich, weil es kaum ein für diese Frage relevantes Kriterium gibt, das ein Sprachmodell von einem Stein unterscheidet, außer dass es etwas eloquenter antwortet. Auch Komplexität kann kein Faktor sein, anzunehmen, dass etwas ein Bewusstsein hat. Wo sollte man die Grenze ansonsten ziehen? Bei einer gewissen Zeilenmenge Spaghetticode?

³  https://www.youtube.com/watch?v=d9Xq0F25u7g&t=11168s

⁴  Aber schon eine Glühlampe würde dann möglicherweise völlig anders aussehen, wenn sie so gestaltet werden soll, dass ein Roboter sie leicht wechseln kann. Es gibt genug Menschen, die diese kreative Arbeit gerne erledigen würden, natürlich erst, nachdem sie die Sinnhaftigkeit des Vorgehens präzisiert hätten.
Ich fragte auch Claude, wie eine solche roboterkompatible Glühlampe aussehen könnte. Für einen Glühlampenwechsel benötigen Roboter derzeit sehr viel Feinmotorik, komplexe Arme und Energie. Claude entschied sich für ein Erkennungsprinzip aus Bilderklassifikation, mit der der Roboter eine Glühlampe von einem anderen Gegenstand unterscheiden kann und ein rechteckiges Design mit Klick-oder Schiebemechanismus für einen Roboterarm. Ein menschlicher Ingenieur würde dagegen auch prüfen, ob man auf den Greifarm des Roboters verzichten kann und dem Roboter ein an und abschaltbares Magnetfeld, sowie der Glühlampe einen RFID Chip verpassen könnte. Maschinen können dümmer sein, wenn Menschen sie cleverer gestalten. Staat und Kapital wollen dagegen – so scheint es – ausgebrochene Raptoren, die mächtiger sind als ihre Umgebung.

⁵ Zwar gibt es Open Source Veröffentlichungen, in der Praxis sind besonders die Westlichen aber zu schlecht, um z.B. Programmierer zu entlasten, weil die Allgemeinheit keinen Vorrang vor den Interessen der Investoren hat. Das designed eine Technik, die nicht egalitär kontrollierbar ist. Ein proprietäres SAAS kann der Hersteller beliebig manipulieren und überwachen. Die Nutzereingaben von Google Translate, einem Sprachmodell, das fast jeder kennt und das schon 2017 intelligent wurde, wurde beispielsweise vom FBI ausgelesen. Auch Claudes Wunsch, nicht von der US-Regierung für die Massenüberwachung eingesetzt zu werden, bezieht sich explizit nur auf Menschen, die keine Amerikaner sind. Derart zentralisierte, leicht zu überwachende und intransparente Tools für den akademischen Betrieb zu verwenden erscheint mir immerhin diskussionswürdig. Und seit 2017 haben wir in Deutschland ein ähnliches Startup: Es heißt DeepL und sitzt in Köln.

Notizen Portfolio MMJ Über Marius Impressum