Der Hauptparadox der aktuellen technologischen Konkurrenz besteht darin, dass die Menschheit versucht, eine universelle künstliche Intelligenz zu schaffen, ohne das einzige System zu verstehen, das diese Fähigkeit bereits in der Praxis bewiesen hat. Dieses System ist das menschliche Gehirn. Unternehmen geben Hunderte von Milliarden Dollar für Rechenzentren, Chips und Elektrizität aus, aber die Investitionen in die Erforschung des Gehirns bleiben unverhältnismäßig gering.
Es geht nicht darum, ob der Umfang der Berechnungen wichtig ist. Es geht um etwas anderes: Stößt der gegenwärtige Ansatz nicht auf architektonische Einschränkungen, die man nicht nur durch eine Erhöhung der Leistung überwinden kann? Wenn ja, dann liegt der direkteste Weg nach vorne nicht über ein weiteres riesiges Cluster, sondern über ein tieferes Verständnis dafür, wie das Gehirn funktioniert.
Warum lernt KI nicht wie der Mensch?
Der auffälligste Vorteil des Gehirns ist das kontinuierliche Lernen. Der Mensch sammelt ein Leben lang Wissen, erlernt Fähigkeiten, verändert seine Vorstellungen von der Welt und löscht dabei normalerweise nicht das bereits Gelernte. Das Gehirn passt sich ständig an: neue Verbindungen entstehen, alte werden gestärkt oder geschwächt. Diese Plastizität macht den Intellekt lebendig und nicht erstarrt.
Bei modernen Modellen ist das Bild anders. Zuerst erfolgt das Training, dann folgt die Anwendung. Nach dem Training werden die Gewichtungsfaktoren in hohem Maße fixiert, und das System lernt nicht aus neuen Erfahrungen, wie es der Mensch tut. Es gibt Umgehungslösungen — externe Speicher, Feinabstimmung, Kontextarbeit — aber sie beseitigen nicht das Grundproblem. Wenn man versucht, neue Kenntnisse direkt in das Modell einzubauen, tritt katastrophales Vergessen auf: Hat es die Aufgabe B erlernt, beginnt es, die Aufgabe A schlechter zu bewältigen.
Für den Menschen ist eine solche Logik untypisch. Das Studium der Geschichte löscht nicht die Algebra, und die Fahrfähigkeiten zerstören nicht das Schwimmen. Das bedeutet, dass das Gehirn das Problem der Aktualisierung des Wissens anders löst. Und genau hier kann die Neurobiologie der künstlichen Intelligenz das geben, was ihr akut fehlt: das Prinzip des Lernens ohne Selbstzerstörung.
Es gibt auch einen wichtigen architektonischen Hinweis. In einem typischen tiefen Modell ist fast das gesamte Netzwerk aktiv, während im Gehirn zu einem bestimmten Zeitpunkt nur ein kleiner Teil der Neuronen arbeitet. Darüber hinaus basiert biologisches Lernen nicht auf einem globalen Fehlersignal, sondern auf lokalen Interaktionen. Das macht das Gehirn gleichzeitig plastisch und stabil. Künstliche Intelligenz nähert sich zwar solchen Prinzipien, bleibt jedoch weit entfernt von biologischer Modularität und Dezentralisierung.
Die energetische Kluft: KI gegen Gehirn
Der Kontrast in der Ressourceneffizienz ist noch deutlicher. Das menschliche Gehirn wiegt etwa 1,3 kg und verbraucht etwa 20 W. Mit diesem bescheidenen Energiehaushalt erkennt es Sprache, bildet Abstraktionen, trifft Entscheidungen, schafft Musik, entwickelt Wissenschaft und politische Systeme.
Am anderen Pol befindet sich die Infrastruktur der modernen künstlichen Intelligenz. Es werden bereits Rechenzentren mit einer Leistung von über 1 GW gebaut. Das ist vergleichbar mit dem Energieverbrauch einer großen Stadt. Die Projekte von Amazon, Meta, xAI, Oracle und OpenAI werden nicht mehr in Servern, sondern in ganzen energetischen Landschaften gemessen. Sam Altman spricht offen über das Ziel, fast jede Woche 1 GW Kapazität für Rechenzentren hinzuzufügen, während Elon Musk die Idee von Weltraum-Rechenzentren als zukünftiges Skalierungsmodell vorantreibt.
Diese Kluft kann nicht nur damit erklärt werden, dass Maschinen bisher "jünger" sind als das Gehirn. Das Problem ist tiefer: Digitale Berechnungen sind äußerst verschwenderisch. Ein erheblicher Teil der Energie geht nicht für die Berechnung selbst, sondern für die Bewegung von Daten zwischen dem Speicher und der Recheneinheit verloren.
Das Gehirn hat dieses Problem nicht. Gedächtnis und Informationsverarbeitung sind dort physisch vereint: ein Neuron ist gleichzeitig am Speichern und am Rechnen beteiligt. Zudem funktioniert das Gehirn wie ein analoges System, in dem die Berechnung nicht von dem physischen Prozess getrennt ist. Wenn man diese Prinzipien genauer versteht, kann man nicht nur eine kostengünstigere künstliche Intelligenz erhalten, sondern eine völlig neue Klasse von Rechensystemen.
Warum werden echte Entdeckungen nur von Menschen gemacht?
Die schwierigste Frage betrifft nicht die Geschwindigkeit und nicht die Kosten der Berechnungen, sondern die Natur des neuen Wissens. Große Sprachmodelle beeindrucken damit, wie sicher sie mit bereits angesammelten menschlichen Informationen umgehen. Aber ihre Grenze ist genau dort sichtbar, wo nicht eine Kombination des Bekannten erforderlich ist, sondern ein echter Durchbruch.
Die Zivilisation basiert auf Ideen, die zuvor nicht existierten. Das heliozentrische System von Nikolaus Kopernikus, die Gravitationstheorie von Isaac Newton, die Evolution der Arten von Charles Darwin, die Struktur der DNA, beschrieben von James Watson und Francis Crick — das sind nicht nur glückliche Umstellungen bereits veröffentlichter Fragmente. Das sind Ideen, die dazu führten, die Struktur der Welt neu zu sehen und eine Richtung für ganze Epochen von Forschung und Technologie vorzugeben.
Künstliche Intelligenz zeigt gelegentlich Blitze echter Neuheit. Aber es ist etwas anderes, einen unkonventionellen Zug in einer formalisierten Umgebung zu machen, und etwas ganz anderes — neue Physik, neue Biologie und neue Gesellschaftstheorie.
Das ist kein Grund, das Erreichte abzuwerten, sondern ein Hinweis auf eine wahrscheinliche Quelle des nächsten Durchbruchs. Wenn das Gehirn die einzige bekannte Quelle wirklich neuen Wissens bleibt, ist das Studium seiner Mechanismen nicht nur ein fundamentales akademisches Thema, sondern auch eine Frage der technologischen Führerschaft.
Wohin die Anstrengungen lenken?
Vor diesem Hintergrund ist die Verzerrung bei der Verteilung von Mitteln besonders auffällig. Große Projekte in der Neurowissenschaft existieren, aber ihr Umfang ist trotzdem nicht vergleichbar mit den Investitionen in künstliche Intelligenz. Zum Beispiel hat die größte staatliche Initiative der USA — die BRAIN Initiative — in mehr als einem Jahrzehnt etwa 3 Milliarden Dollar an Gesamtfinanzierung erhalten, und ihr Jahresbudget betrug selbst in den Spitzenjahren etwa 680 Millionen Dollar.
Ein weiteres anschauliches Beispiel ist das europäische Programm Human Brain Project, das Dutzende von Forschungszentren vereint und eine Finanzierung von 1 Milliarde Euro über zehn Jahre erhalten hat.
Gerade deshalb wird immer häufiger die Idee geäußert, nicht nur "das Gehirn mehr zu studieren", sondern detaillierte Karten der neuronalen Verbindungen des Gehirns zu erstellen — Konnektome, also Diagramme, wie genau die Zellen und Synapsen verbunden sind. Ein solches Projekt für Neurotechnologien könnte eine Rolle spielen, die mit der Rolle vergleichbar ist, die das Humangenomprojekt für die Biotechnologie gespielt hat. Ohne dies riskiert die künstliche Intelligenz, noch lange den teuersten möglichen Weg zu gehen.
Der Wettlauf um universelle künstliche Intelligenz hat einen zu engen Kurs gewählt. Die Welt gibt Hunderte Milliarden Dollar aus, um Intelligenz zu kopieren, und spart dabei beim Studium ihres einzigen funktionierenden Beispiels. Das ist nicht nur ein Ungleichgewicht, sondern ein strategischer Fehler.
