Lexikon

Computationalismus

Joshua Hoehne

Computationalismus ist die These, dass Denken, Fühlen und Bewusstsein im Kern Rechenvorgänge sind — realisierbar auf jedem hinreichend komplexen Substrat. Was als wissenschaftliche Nüchternheit auftritt, ist die Verwechslung eines Werkzeugs mit der Wirklichkeit.

Jede Epoche hat ihre Leitmaschine, und jede Leitmaschine wird zum Modell für alles. Im siebzehnten Jahrhundert war es das Uhrwerk: Gott als Uhrmacher, der Kosmos als Mechanismus, das Tier als Automat. Im neunzehnten Jahrhundert die Dampfmaschine: Energie, Druck, Entropie als Grundvokabular des Lebendigen. Im zwanzigsten und einundzwanzigsten Jahrhundert der Computer. Die These, dass Bewusstsein im Kern Berechnung sei, dass Denken, Fühlen, Erleben nichts anderes sind als Informationsverarbeitung auf einem biologischen oder künstlichen Substrat, heißt Computationalismus. Wenn Du Dich fragst, warum diese Position so verbreitet ist: Sie ist die derzeit einflussreichste Annahme in der Kognitionswissenschaft und die philosophische Grundlage jeder Behauptung, Maschinen könnten bewusst werden.

Die Analogie, die sich für Ontologie hält

Computationalismus ist nicht eine Entdeckung, sondern eine Analogie. Der entscheidende Zug besteht darin, dass die Analogie irgendwann vergessen wird. Zunächst heißt es: Das Gehirn funktioniert wie ein Computer. Dann: Das Gehirn ist ein Computer. Und schließlich: Jedes System, das dieselbe Berechnung ausführt, ist bewusst. Lewis Mumford hat diesen Vorgang 1967 in The Myth of the Machine als die zentrale Weichenstellung der Moderne beschrieben: die Verselbstständigung des Prinzips der Rechenmaschine, die nur die Veräußerlichung einer bereits erfolgten Gefangensetzung des Menschen in einem Ausschnitt seiner selbst ist, nämlich der abstrakten Rationalität (vgl. Mumford, 1967).

Was Computationalismus von Funktionalismus unterscheidet, ist der Radikalitätsgrad. Funktionalismus sagt: Bewusstsein wird durch funktionale Rollen bestimmt. Computationalismus sagt: Diese Rollen sind Rechenprozesse, und zwar exakt die Art, die ein Universalrechner ausführen kann. Damit wird die Turingmaschine zum Maß aller Dinge. Alles, was sich formal beschreiben lässt, lässt sich berechnen; alles, was sich berechnen lässt, lässt sich auf Silizium realisieren; und was sich auf Silizium realisieren lässt, ist, so die Behauptung, von seinem biologischen Original ununterscheidbar.

Kohärenz ohne Bewusstsein

In der Everlast-AI-Debatte (2026) hat Joscha Bach die computationalistische Position in ihrer stärksten Form vertreten: Bewusstsein sei eine Simulation davon, wie es wäre, wenn es einen Agenten gäbe, der in der Jetztzeit sein Selbst und seine Umwelt wahrnimmt. Zellen kommunizieren, werden kohärent, und aus diesem Muster der Kohärenz entstehe das Modell vom Organismus und seiner Umwelt. Um das zu verstehen, müsse man es nachbauen, durch Simulation. Sein philosophisches Projekt ist der Versuch, genau das zu tun (vgl. Gwendolin Kirchhoff, Everlast AI Debate, 2026, 39:55–42:57).

Gwendolin Kirchhoff hat den zentralen Fehler dieser Position benannt: Man kann Kohärenz erzeugen, etwa in einer Blockchain. Aber die Blockchain ist deswegen nicht bewusst. Man kann Wahrnehmung zweiter Ordnung herstellen: eine Kamera, die durch einen sekundären Sensor dabei beobachtet wird, wie sie aufnimmt. Auch das wäre kein Bewusstsein. All diese Definitionen greifen den eigentlichen Inhalt des Bewusstseins nicht, der eben von der ersten Person her nur erfasst werden kann (vgl. Gwendolin Kirchhoff, Everlast AI Debate, 2026, 45:10–45:41).

Der Punkt ist nicht, dass Kohärenz und Informationsverarbeitung irrelevant wären. Beides findet in lebendigen Systemen statt. Der Punkt ist, dass die computationalistische Schlussfolgerung, wenn dieselbe Berechnung anderswo stattfindet, sei dort auch Bewusstsein, ein Sprung ist, den nichts rechtfertigt. Zwischen der Beschreibung eines Vorgangs und dem Vorgang selbst klafft eine Differenz, die Kirchhoff als ontologische Einebnung bezeichnet: Der Techniker glaubt, alles, was er simulieren kann, sei dann genau dasselbe wie die Simulation. Es gibt zwischen Simulation und Original keinen Unterschied mehr. Das Sein wird eingeebnet (vgl. Gwendolin Kirchhoff, Die Abschaffung des Menschen, 2024, 02:35).

Die Maschine als Analogiequelle

Hinter dem Computationalismus steht ein erkenntnistheoretisches Problem, das älter ist als jeder Computer. Jochen Kirchhoff hat es als die Wahl der Analogiequelle beschrieben: Wir denken immer in Analogien, und die Wahl des Ausgangspunkts bestimmt, was wir erkennen können. Wer von der Maschine ausgeht, erzeugt ein Bild der Wirklichkeit, in dem Bewusstsein nicht vorkommen kann — weil die Maschine ein entlebtes Artefakt ist, gesteuert von außen nach innen, auf die Zwecke des menschlichen Verstandes hin. Das Organische hingegen organisiert sich von innen nach außen und bringt seine Form aus sich selbst hervor. Wenn Du Dir den Unterschied vergegenwärtigst, wird das Problem sichtbar: Die Maschinenanalogie erzeugt ein Weltbild, in dem Bewusstsein prinzipiell nicht vorkommen kann, weil sie es schon im Ansatz ausschließt (vgl. Jochen Kirchhoff, Was die Erde will, 1998).

Descartes hatte den Anfang gemacht: Er definierte Tiere als Kunstmaschinen, als automata. Wenn man einen Hund lebendig aufschneidet und er Geräusche von sich gibt, dann quietscht er wie eine Maschine. Er leidet nicht, sobald man ihn als Maschine definiert hat. Kirchhoff hat in der Everlast-AI-Debatte gezeigt, wohin diese Logik führt: In dem Moment, wo wir etwas als Maschine definieren, rechtfertigen wir zerstörerische Eingriffe, Empathieverlust und beliebige Vernutzung dessen, was wir so definiert haben (vgl. Gwendolin Kirchhoff, Everlast AI Debate, 2026, 79:05–79:50).

Der Computationalismus wiederholt den cartesianischen Zug, nur in umgekehrter Richtung: Descartes erklärte das Lebendige zur Maschine, der Computationalismus erklärt die Maschine zum potenziell Lebendigen. Beide Male wird die Differenz zwischen dem Mechanischen und dem Organischen eingeebnet, und wenn Du den Gedanken zu Ende denkst, verschwindet mit dieser Differenz auch jeder Grund, Bewusstsein ernst zu nehmen. Schelling nannte diesen Gedanken in den Ideen zu einer Philosophie der Natur (1797) ein Ungeheuer und eine Ungereimtheit: Der Anorganismus ist nur der negierte Organismus, das Tote nur das zurückgedrängte Leben. Es gibt nichts absolut Totes.

Die Grenze der Berechnung

Das Boot-Problem stellt die härteste Anfrage an den Computationalismus: Alle Bestandteile einer lebenden Zelle lassen sich synthetisieren. Jede Funktion lässt sich isoliert nachstellen. Und doch wurde noch nie eine lebende Zelle aus ihren Bestandteilen zusammengesetzt. Was die Berechnung nicht enthält, ist das Lebendigsein selbst. Kirchhoff hat den Zusammenhang auf den Punkt gebracht: Es gibt einen Bewusstwerdungsdrang, eine innerliche Dimension, die dem Kosmos als Ganzem ontologisch zugrunde liegt. Die Frage ist, welche Metaphysik ein Boot-Problem und ein Hard Problem überhaupt erzeugt: die mechanistische, nicht die des lebendigen Kosmos (vgl. Gwendolin Kirchhoff, Everlast AI Debate, 2026, 75:53–76:34).

Die Naturphilosophie bietet keine Theorie, die Bewusstsein aus irgendeinem Substrat ableitet. Sie steht vor dem Problem nicht, weil sie Bewusstsein nicht als Produkt von Materie denkt, sondern als den Grund, in dem Materie erscheint. Der menschliche Leib ist in dieser Perspektive ein subtiles Empfangsorgan für ein alles durchziehendes Informationsfeld, das in viele Schichten und Raumtiefen hineinreicht. Bewusstsein auf eine Reduktion auf wenige Einzelfunktionen gleichzusetzen, die relativ oberflächlich der Natur sind, hält Kirchhoff für geisteskrank, nicht als rhetorische Übertreibung, sondern als präzise Diagnose einer Kategorienverwechslung (vgl. Gwendolin Kirchhoff, Everlast AI Debate, 2026, 17:13).

Computationalismus ist die philosophische Form einer Verwechslung: Er nimmt das Werkzeug, das der Mensch gebaut hat, um Aspekte der Wirklichkeit zu berechnen, und erklärt es zur Wirklichkeit selbst. Das Enthaltene wird zum Behälter. Wenn Du diese Verwechslung durchschaust, stehst Du vor einer Entscheidung, die nicht technisch, sondern metaphysisch ist: Ist der Kosmos eine Maschine, die zufällig Bewusstsein hervorbringt, oder ein lebendiger Organismus, der Maschinen als Werkzeuge gebraucht? Die Einträge zu Substratunabhängigkeit, Funktionalismus und Boot-Problem vertiefen die einzelnen Stränge dieser Frage.

Diese Gedanken vertiefen

Wenn Dich diese Denkbewegung anspricht und Du sie in Deinem eigenen Leben weiterführen möchtest — ich begleite Dich gern.