Entwickeln Maschinen ein Bewusstsein?

(Süddeutsche Zeitung, 4.2.2025)

Nils Althaus

Damit müsse man zumindest rechnen, sagt der Bewusstseinsphilosoph Jeff Sebo im Interview. Doch was bedeutet das für unseren Umgang mit Computern oder Saugrobotern?

Noch vor wenigen Jahren wurde belächelt, wer behauptete, KI könnte ein Bewusstsein entwickeln. Jeff Sebo, Philosophie-Professor an der New York University, sagt in seinem neuen Buch „The Moral Circle“, dass wir diese Möglichkeit nicht mehr länger außer Acht lassen dürfen.

SZ: Jeff Sebo, würden Sie Ihren Saugroboter treten, wenn Sie wütend sind?

Jeff Sebo: Nein, das würde ich nicht.

Warum nicht?

Erstens, weil er ziemlich teuer war (lacht). Zweitens, weil ich denke, dass die Art und Weise, wie ich jetzt mit diesem Roboter umgehe, beeinflusst, wie ich mit zukünftigen Robotern und KI-Systemen umgehen werde. Mein heutiger Saugroboter hat noch kein Bewusstsein, aber bereits in fünf oder zehn Jahren könnten KI-Systeme eines haben und somit moralisch bedeutsam werden.

Wie würden wir denn überhaupt erkennen, dass eine KI ein Bewusstsein hat?

Bewusste Erlebnisse lassen sich zwar nicht direkt beobachten, aber es gibt eine Reihe von Indikatoren, die mit Bewusstsein korrelieren. Bei KI-Programmen sucht man beispielsweise nach computerarchitektonischen oder algorithmischen Merkmalen, die Prozesse wie Wahrnehmung, Lernfähigkeit, Gedächtnisbildung, zielgerichtetes Verhalten oder flexible Entscheidungsfindung ermöglichen. Keiner dieser Indikatoren ist ein abschließender Beweis für die Existenz von Bewusstsein. Aber je mehr wir davon finden, desto höher liegt die Wahrscheinlichkeit.

Welche Indikatoren findet man denn bei heutigen Chatbots wie ChatGPT oder Claude?

Zurzeit sehen wir noch nicht viele Hinweise, dass diese Merkmale schon vorhanden sein könnten. Aber das beginnt sich zu verschieben. Im vergangenen Monat sprachen KI-Unternehmen vermehrt über die Einführung von KI-Akteuren, die über mehr Handlungsspielraum verfügen sollen. Solche Systeme könnten bereits mehrere Bewusstseinsindikatoren aufweisen. Die KI-Unternehmen arbeiten intensiv daran, ihre Systeme mit Fähigkeiten auszustatten, die mit bewusster Erfahrung zusammenhängen.

Eine Minderheit ihrer Kollegen vertritt die Ansicht, dass Bewusstsein prinzipiell nur mit biologischer Materie, sprich Nervenzellen und Gehirnen, möglich ist. Was entgegnen Sie darauf?

Man kann mit einem Gedankenexperiment von David Chalmers (ein Philosoph und Bewusstseinsforscher an der New York University, Anm. d. Red.) antworten: Stellen wir uns vor, wir ersetzen sukzessive alle Nervenzellen im Gehirn einer Versuchsperson mit funktional äquivalenten Computerchips. Diese nehmen die elektrischen Signale von Nervenzellen auf, verarbeiten sie und leiten wiederum Signale weiter, genau wie es Nervenzellen tun. Die Person bestätigt während des gesamten Prozesses, Empfindungen zu haben – auch am Ende, als jede einzelne Nervenzelle ersetzt worden ist. Sollen wir annehmen, dass die Person in Tat und Wahrheit nichts mehr empfindet, obwohl sie sich völlig normal verhält und beispielsweise über Schmerzen klagt?

Auch wenn man diesem philosophischen Argument folgt: Wie viel hat die aktuelle Realität damit zu tun?

Moderne Gehirn-Computer-Schnittstellen wie jene von Neuralink zeigen, dass die Signale von Nervenzellen mit digitalen Signalen interagieren können. Doch selbst wenn man digitalem Bewusstsein gegenüber grundsätzlich skeptisch eingestellt ist, wäre es angesichts der heutigen Evidenz verfrüht, diese Möglichkeit auszuschließen.

Warum?

Fragt man Philosophen, wie klein eine Wahrscheinlichkeit sein muss, damit man sie moralisch vernachlässigen darf, erhält man Antworten von eins zu tausend oder kleiner. Das heißt: Wenn die Wahrscheinlichkeit, dass eine KI ein Bewusstsein haben könnte, eins zu tausend oder mehr beträgt, müssen wir diese Möglichkeit ernst nehmen. Robert Long und ich haben in einem Forschungsbericht gezeigt, dass selbst mit konservativen Annahmen diese Wahrscheinlichkeit bis 2030 realistischerweise überschritten wird. Das gilt selbst dann, wenn man von einer 80-prozentigen Wahrscheinlichkeit ausgeht, dass Bewusstsein grundsätzlich ein biologisches Substrat braucht. Und 80 Prozent sind bei unserem lückenhaften Verständnis des Bewusstseins schon extrem hoch. Es widerspricht also allen gängigen risikoethischen Theorien, wenn wir die Möglichkeit künstlichen Bewusstseins einfach ignorieren.

David Chalmers hat sich ebenfalls dazu geäußert. In einem Vortrag vor zwei Jahren schätzte er die Wahrscheinlichkeit, dass KIs Anfang der 2030er-Jahre Empfindungen haben werden, auf über 20 Prozent. Warum ist seine Einschätzung viel höher als Ihre?

Meine persönliche Einschätzung liegt ebenfalls in diesem Bereich. Im Bericht haben wir aber nicht unsere persönliche Meinung formuliert, sondern was sich ergibt, wenn man ein breites Spektrum aktuell vertretener Theorien berücksichtigt. Rede ich mit Entscheidungsträgern, will ich sagen können: Schauen Sie, selbst wenn wir diese und jene skeptischen Annahmen treffen, haben wir am Ende immer noch eine Wahrscheinlichkeit von eins zu tausend oder höher, dass KI moralisch berücksichtigt werden muss. Das ist risikoethisch nicht zu vernachlässigen.

Und wenn man abschätzen will, wie wahrscheinlich ein Bewusstsein bei einem Kaktus oder einem Taschenrechner ist?

Mit denselben Grundannahmen würde bei beiden eine geringere Wahrscheinlichkeit resultieren, wobei Pflanzen aufgrund ihres komplexeren Verhaltens zumindest weitere Untersuchungen rechtfertigen.

Wenn plötzlich überall Bewusstsein lauert, droht uns dann nicht eine völlige Lähmung? Ich könnte ja nie mehr guten Gewissens den Computer ausschalten.

Ich glaube, Verwirrung ist die korrekte Einstellung. Das Bewusstsein ist eines der größten wissenschaftlichen und philosophischen Rätsel. Selbst bei uns Menschen tun wir uns schwer, es zu erklären. Gleichzeitig steht ungemein viel auf dem Spiel: Entwickeln wir bewusstseinsfähige KI-Systeme, besteht die Gefahr, dass wir fühlende Wesen in unvorstellbarer Zahl erschaffen und es womöglich nicht einmal merken. Das wäre verheerend. Aber auch das Gegenteil birgt Risiken: Vermuten wir bei KI-Systemen ein Bewusstsein, wo keines ist, könnten wir Ressourcen auf sie verschwenden, die wir besser Menschen oder Tieren zukommen lassen sollten.

Nehmen wir einmal an, KI-Bewusstsein wird zur Realität. Was zählen dann noch die Interessen der Menschen?

Ich behaupte definitiv nicht, dass wir Menschen erhebliche Opfer bringen sollen, um das Wohl der KI zu fördern. Wir sollten es aber auch nicht beim Status quo belassen, bei dem weltweit nur ein paar Dutzend Personen an KI-Bewusstseinsthemen arbeiten. Wir könnten ohne Weiteres ein paar hundert oder tausend Menschen darauf ansetzen, ohne die Investitionen in unser eigenes Wohlergehen, unsere Rechte oder die Umwelt zu schmälern.

Welche Maßnahmen schweben Ihnen denn vor?

KI-Unternehmen müssen anerkennen, dass das Wohlergehen von KI ein ernstzunehmendes Thema ist. Sie sollten beginnen, ihre Systeme auf Bewusstseinsindikatoren zu überprüfen. Und sie sollten Richtlinien vorbereiten, wie sie mit KI umgehen, die über Bewusstsein verfügen könnte. Die führende KI-Firma Anthropic ist unlängst mit gutem Beispiel vorangegangen und hat einen Experten für KI-Wohlfahrt eingestellt. Andere sollten ähnliche Schritte einleiten.

Müssen auch wir Endverbraucher unser Verhalten anpassen?

Wenn wir es vermeiden, Saugroboter zu treten, und ihnen gegenüber etwas Respekt einüben, genügt das fürs Erste.