NOESIS
Hat KI eine Seele?

NOESIS
Hat KI eine Seele?

Zu sehen ist ein Banner vom Newsletter Noesis mit dem Beiträger Dr. Peter M. Steiner

Kein anderes Thema treibt die breite und auch die wissenschaftliche Öffentlichkeit derzeit so um wie die sogenannte „Künstliche Intelligenz“. Die einen knüpfen Heilserwartungen an die KI wie an eine neue Religion, die anderen sehen den Untergang der Menschheit durch diese technische Revolution gekommen. Ein reflektierter Blick auf dieses Thema scheint mehr als geboten. Im aktuellen Beitrag unseres Philosophie-Newsletters NOESIS stellt sich der Philosoph Peter M. Steiner dieser Herausforderung und zeichnet die Argumentationslinien seines aktuellen Buchs „Die Seele im Zeitalter der Künstlichen Intelligenz“ nach.

Im Gespräch mit Dr. Peter M. Steiner

KI beherrscht derzeit die öffentlichen Debatten. Können Sie Ihren Zugang zu diesem Thema skizzieren und wie Sie dazu gekommen sind, sich mit der KI aus philosophischer Sicht zu beschäftigen?

Wenn man etwas geschrieben und veröffentlicht hat, dann muss das üblicherweise für sich selbst stehen und kann sich nicht selbst verteidigen. Die unterschiedlichen Eindrücke und möglichen Einwände der Leserinnen und Leser kann man als Autor immer nur sehr begrenzt vorwegnehmen. Ihre Fragen geben mir die Gelegenheit, ein wenig von dem zu verstehen, wie mein „Versuch“ über die „Seele im Zeitalter der Künstlichen Intelligenz“ aufgenommen werden wird.

„Künstliche Intelligenz“ (KI) war immer wieder ein Thema, das auch Philosophen beschäftigt hat, seitdem moderne Computer entwickelt wurden und das „Elektronenhirn“ die Fantasie, nicht nur ihrer Entwickler, angeregt hat. Bereits in den 1960er-Jahren wurden kritische Stimmen laut, die vor zu hohen Erwartungen warnten. Und so auch bei jedem erneuten Anlauf mit weiterentwickelter Technik oder Methoden, mit denen KI immer wieder neu angepriesen wurde. Die philosophische Herausforderung liegt weniger darin, zu verstehen, was der technische Fortschritt mit sich bringt, als vielmehr, was hinter der Selbstbeziehung des Menschen steht, die Maschine als eine dem Menschen überlegene Schöpfung anzunehmen. Das Selbstbild des Menschen ist dabei das philosophisch Interessante: Die Angst des Schöpfers, dessen Schöpfung ihm überlegen wäre und sich gegen ihn wendet. Darin steckt der Gedanke von der Depotenzierung Gottes, der seit der Aufklärung der beschleunigten Entwicklung von Wissenschaft und Technologien inhärent ist. Tatsächlich aber ist das ein sehr alter Gedanke, der in den klassischen Mythen von menschlicher Hybris handelt.

Nachdem ich mich mit KI schon einmal während meines Studiums beschäftigt hatte, bin ich erneut zum Thema KI gekommen, als ich mich im Rahmen meiner Tätigkeit bei der Max-Planck-Gesellschaft mit aktuellen Ethik-Fragen befasst habe und für die Grundlagenforschung Probleme im Umgang mit der Bewertung von KI-Entwicklung und KI-Nutzung auftauchten. Nachdem dieses Problem zudem rechtlich noch nicht klar umrissen war, sollte eine ethische Selbstverpflichtung für die Grundlagenforschung formuliert werden. Dazu durfte ich einen bescheidenen Beitrag leisten. Und dies hat mich zur weiteren Auseinandersetzung mit KI veranlasst und, nachdem ich in Rente ging, war mir die Möglichkeit gegeben, mich, auch zeitlich intensiv, mit jenen Fragen zu befassen, von denen das vorliegende Buch handelt. Die Literatur zum Thema ist in den vergangenen Jahren ja sintflutartig angewachsen. Mein Zugang begann also mit der Analyse der Grundlagenforschung zu und mit KI und mündet in die Frage nach dem Selbstverständnis des Menschen in Bezug auf KI.

Sie unterscheiden in Ihrem Buch verschiedene Formen von Intelligenz. Ist es aus Ihrer Sicht überhaupt legitim, in Bezug auf KI von „Intelligenz“ zu sprechen, und wenn ja, wo unterscheidet sich diese Ihrer Einschätzung nach von der menschlichen Intelligenz?

Zweifelsfrei gibt es intelligentes Verhalten bei Tieren und dem Menschen wird per se natürliche Intelligenz unterstellt. Der Begriff der Intelligenz ist aber unscharf und umstritten. Vielleicht würde man sich am ehesten darauf einigen können, dass Intelligenz Problemlösungskompetenz wäre. Wobei sowohl die gestellten Probleme wie auch die möglichen Lösungen höchst unterschiedlich ausfallen und interpretiert werden können. Das zeigen etwa die weit auseinandergehenden Meinungen um den Wert von Intelligenztests und den sogenannten „Intelligenzquotienten“. Intelligenz kann man als integrale lebendige Fähigkeit des Überleben-Könnens verstehen. Beim Menschen aber geht Intelligenz darüber hinaus, eröffnet die Fähigkeit zum Gut-Leben-Können. Daher steckt in der menschlichen Intelligenz m.E. mehr als üblicherweise angenommen wird und da kommt für mich die Seele ins Spiel. Da ich, um es hier ganz kurz zu machen, der Meinung bin, dass die Maschinen keine „eigenen Probleme“ haben können, denn sie werden ja ausschließlich mit menschlichen Daten und Problemen gefüttert, können sie auch keine „eigene“ Problemlösungskompetenz haben und auch nicht entwickeln. Ergo besitzen Maschinen keine Intelligenz. Das „künstliche“ an der Maschinen-Intelligenz müsste somit wie ein negatives Vorzeichen gelesen werden.

In Ihrer Darstellung nimmt Platons Philosophie und vor allem sein Begriff der „Seele“ besonderen Raum ein. Der Einfluss dieses antiken Denkers ist in Ihrem Essay auch formal erkennbar, da Sie in einzelnen Kapiteln den platonischen Dialog wiederaufleben lassen, u.a. sogar in einem Gespräch mit ChatGPT. Welche Rolle spielt Platon in Ihrer Darstellung?

Das Denken der Seele ist nach Platon ein Dialog, ein lautloses Gespräch, das der Mensch mit sich selbst führt. Die platonische Philosophie ist uns in der Form von Dialogen überliefert, in denen meistens Sokrates die Rolle des vernünftigen Gesprächsführers übernimmt. Aus der Interpretation der platonischen Dialoge verstehe ich die Seele als Grundlage nicht nur der platonischen Philosophie, sondern bin der Überzeugung, dass sich damit ganz aktuell eine erfolgreiche Auseinandersetzung mit der technokratischen Vorstellung einer „Künstlichen Intelligenz“ führen lässt. Um auch der Form nach dieser Begegnung mit dem Thema gerecht zu werden, habe ich in weiten Teilen meiner Ausführungen versucht, diese dialogisch umzusetzen. Obwohl das Gespräch eine selbstverständliche Form des menschlichen Umgangs und auch des Philosophierens ist, wird das schriftliche Gespräch äußerst selten in der Philosophie als Form der Argumentation angewendet.

Seele bei Platon meint nicht nur die Seele eines einzelnen Menschen, sondern umfasst sowohl die Politeia, die „Seele“ der politischen Gemeinschaft, als auch den Kosmos, die beseelte Welt im Ganzen, in der sich der Mensch wiederfindet. Dementsprechend habe ich die Gegenüberstellung von Seele und KI in der Anthropologie und Psychologie, der Politik und in der Kosmologie untersucht.

Und um zu zeigen, wie ein „Dialog“ mit einer KI aussehen kann, habe ich ein von mir initiiertes „Gespräch“ mit ChatGPT-4 geführt, aufgezeichnet und in mein Buch aufgenommen.

Ob mir das große Vorhaben mit meinen Ausführungen gelungen ist, werden freilich andere beurteilen; mit dem Untertitel des Buches: „Ein Versuch“ – wollte ich jedenfalls mein Bewusstsein von der übergroßen Aufgabe zum Ausdruck bringen.

Philosophen sind keine Wahrsager. Aber wenn Sie einen Blick in die nähere Zukunft wagen: Welche Rolle wird die KI aus Ihrer Sicht in 10–20 Jahren spielen? Welche Gefahren, aber auch welche Chancen sehen Sie?

Seitdem der Begriff der KI in den 1950er-Jahren erfunden wurde, hat die Entwicklung der KI in den vergangenen 70 Jahren schon mehrere Hochs und Tiefs erlebt. Nach jeder Phase der euphorischen Aufbruchsstimmung gab es bald wieder eine Depression, weil die jeweiligen Erwartungen sich beileibe nicht erfüllt haben. Mir scheint, so wird es auch gegenwärtig sein. Man kann zu Beginn des Jahres 2026 schon erkennen, dass der jüngste Hype um die Large Language Models wie Bard, ChatGPT, Claude und wie sie alle heißen, wieder eingefangen wird von der Realität, in der nicht alles so kommt wie vorhergesagt und gewünscht. Die wirtschaftlichen Interessen der Kapitalanleger scheinen dabei eine besonders große Rolle zu spielen. Einerseits liegt das wohl an der dem kapitalistischen System innewohnenden Gier, andererseits am mangelnden Verantwortungsbewusstsein der großen Firmen bzw. ihrer Gründer und Eigentümer, die hinter der jüngsten KI-Entwicklung stehen. Mir selbst ist mit meinem Buch wichtiger, auf die Verantwortung hinzuweisen, die wir als Menschen für uns selbst haben: Selbsterkenntnis und daraus abzuleitende Bescheidenheit wären der Gewinn. Unter dieser Voraussetzung kann auch KI, wie viele technische Errungenschaften, ein wertvolles Instrument sein und der Menschheit gute Dienste leisten.

Wer sich allerdings dialogisch nicht durch Argumente überzeugen lassen will, kann vielleicht von einem Mythos dazu überredet werden, dass der Lohn der schlechten und unbedachten Tat nicht in einem materiellen Gewinn, sondern im Verlust der Seele liegt.

Über den Autor

Dr. Peter M. Steiner hat in den vergangenen Jahren intensiv zu KI und Ethik geforscht und u. a. bei der Erstellung eines White Paper für die Max-Planck-Gesellschaft (MPG) zum Thema mitgewirkt. Von 2008 bis 2024 war er bei der Generalverwaltung der MPG in München für Wissenschaftsausstellungen, E-Learning und Ethikfragen zuständig.

Mehr davon?
Unser Newsletter NOESIS versorgt Sie regelmäßig mit neuen Beiträgen, exklusiven Inhalten aus unserem Verlagsprogramm und aktuellen Hinweisen aus der philosophischen Community.
Für alle, die sich nicht mit einfachen Antworten zufriedengeben.