NOESIS
Soziale Roboter – unsere neuen besten Freunde?

30.09.2025

NOESIS
Soziale Roboter – unsere neuen besten Freunde?

Zu sehen ist ein Banner von Noesis mit dem Beiträger Prof. Dr. Oliver Bendel

Im Gespräch mit Prof. Dr. Oliver Bendel

Im aktuellen Beitrag unseres Philosophie-Newsletters NOESIS  wagen wir einen Blick in die Zukunft sozialer Roboter. Mit Prof. Dr. Oliver Bendel sprechen wir über Nähe, Illusion und die Risiken, wenn Maschinen menschliche Beziehungen nachahmen. Können Roboter unsere Gefühle berühren – oder täuschen sie uns nur? Ein Gespräch über Maschinen, die uns begleiten, beeinflussen und herausfordern – schon heute.

Lieber Herr Bendel, woran arbeiten Sie gerade im Kontext der sozialen Robotik?

Wir erforschen derzeit tragbare soziale Roboter. Es gibt Modelle, die man an einer Kette um den Hals tragen oder an der Kleidung befestigen kann. Es eröffnen sich Möglichkeiten für behinderte und beeinträchtigte Personen. Und für die Raumfahrt. Man muss sich vorstellen, dass die kleinen, leichten Roboter enorme Fähigkeiten haben, wie Objekt- und Gesichtserkennung oder die Anbindung an ein großes Sprachmodell. Dadurch können sie ihre Umgebung analysieren und evaluieren und bestimmte Erkenntnisse in natürlicher Sprache dem Besitzer übermitteln. Und das jederzeit und überall, denn sie sind immer mit dabei.

Davor haben wir uns die Frage gestellt, ob man Roboter in Gefängnissen einsetzen kann und soll. Dabei haben wir uns für soziale Roboter ebenso interessiert wie für klassische Serviceroboter, etwa Reinigungs- oder Transportroboter. Wir haben Justizvollzugsanstalten in der Schweiz besucht und Expertengespräche geführt, sowohl mit Direktoren als auch mit Insassen. Das Ergebnis war, dass Serviceroboter nicht erwünscht sind, weil sie den Häftlingen die Arbeit wegnehmen. Dagegen sind soziale Roboter erwünscht, vor allem als Gesprächspartner der Insassen. Chatbots würden vermutlich auch genügen.

Behebt die soziale Robotik wirklich den Pflegenotstand, in dem wir uns gerade befinden und der sich vermutlich noch intensivieren wird?

In der Pflege werden soziale Roboter im engeren Sinne und Assistenzroboter eingesetzt. Die einen können oft nur informieren, kommunizieren, motivieren. Die anderen – die durchaus soziale Merkmale haben können – können etwas physisch manipulieren, zum Beispiel etwas aufheben und etwas reichen oder eine Flasche aufmachen. Beide Typen werden den Pflegenotstand nicht beheben. Sie können Pflegedürftige und Pflegekräfte unterstützen. Manchmal stehen sie aber auch einfach nur im Weg.

Man sollte die Pflege aufwerten, die Pflegekräfte mehr wertschätzen, ihre Arbeitsbedingungen verbessern, ihnen höhere Löhne zahlen. Dann darf man auch einige Roboter einsetzen, ob als soziale Roboter oder Assistenzroboter. Freilich muss man hier in politischer und rechtlicher Hinsicht erst noch die Hausaufgaben machen. Die Pflegerobotik kam nie richtig zum Fliegen, auch weil es keine Sicherheiten und Verbindlichkeiten für die Hersteller gibt.

Kommen wir zu ethischen Fragen, die unsere Leser sicherlich sehr interessieren: Wenn soziale Roboter zunehmend selbstständig Entscheidungen treffen – inwiefern verdienen sie dann moralische Verantwortung oder gar Rechte?

Soziale Roboter können keine Rechte haben. Sie können auch keine Pflichten haben, höchstens Verpflichtungen in einem schwachen Sinne – sie bekommen Aufgaben übertragen, die sie erledigen sollen. Verantwortung können sie auf keinen Fall tragen. Rechte kann nur etwas haben, das empfinden und leiden kann. Menschen und Tiere können Rechte haben. Menschen, Tiere und Pflanzen können auch eine Würde haben. Und einen Wert, der sich nicht oder nur schwer monetär bestimmen lässt.

Wenn soziale Roboter oder andere Menschen selbstständig Entscheidungen treffen, sie also unter unterschiedlichen Optionen auswählen, nicht zufällig, sondern gezielt, sollte man ihnen in bestimmten Fällen und Zusammenhängen auch moralische Fähigkeiten geben. Natürlich haben Maschinen kein Bewusstsein, keinen freien Willen, keine Intuition, keine Empathie. Aber sie können Regeln befolgen – wer, wenn nicht sie! Und die Regeln können moralischer Art sein. In der Maschinenethik pflanzen wir Chatbots, Sprachassistenten und Robotern moralische Regeln ein. Daraus folgt aber nichts für ihre Rechte oder für ihre Verantwortung. Sie haben dann einfach Verpflichtungen in einem schwachen Sinne, wenn überhaupt.

Soziale Roboter oder andere Maschinen können also, um andere Begriffe zu verwenden, keine Objekte der Moral sein. Es ist keine Rücksicht auf sie selbst zu nehmen, allenfalls auf ihre Besitzer, Benutzer oder Gesprächspartner. Sie können Subjekte der Moral in einem stark eingeschränkten Sinne sein. Neuartige, merkwürdige, unvollständige Subjekte. Subjekte von Aktionen, die moralische Implikationen haben. Tiere können Objekte der Moral sein, was mit ihren Rechten zusammenhängen mag. Unter Umständen auch Pflanzen, wenn man den Begriff der Würde entsprechend fasst. Ein alter Olivenbaum könnte eine solche Würde haben. Allerdings höre ich nun schon den jungen Olivenbaum zetern …

Können Interaktionen mit Robotern jemals „echt“ sein, oder schaffen wir nur Illusionen von Nähe und Empathie, die menschliche Bindungen verändern? Wenn Roboter Empathie simulieren, Humor zeigen oder „kreativ“ handeln – wie unterscheiden wir dann noch zwischen menschlicher und künstlicher Sozialität?

Sie sagen ganz richtig, dass sie Empathie simulieren. Sie simulieren Bewusstsein, Intelligenz, Moral, Empathie. Das heißt keineswegs, dass dies keine Auswirkungen und keine Wirkungen hat. Der Roboter oder das KI-System erkennt, dass sein menschliches Gegenüber ein ernsthaftes Problem hat, er geht auf dieses Problem ein, er zeigt Mitgefühl und Mitleid. Damit löst er das Problem oder er löst es nicht. Bei autonomen Maschinen liegt es nahe, sie mit moralischen und sozialen Fähigkeiten zu verbinden. In manchen Zusammenhängen ist das zielführend, in anderen nicht. Es kann sogar gefährlich sein. Ein Ausweg ist, manche autonomen Maschinen erst gar nicht einzusetzen oder zu verbieten.

Wie unterscheiden wir nun zwischen menschlicher und künstlicher Sozialität? Eine Möglichkeit ist eben, den Begriff der Simulation herzunehmen. Zwischen den Maschinen und uns ist ein tiefer Graben. Es ist ein Graben, der das Sein an sich betrifft. Und es ist mir wichtig, ihn nicht zuzuschütten. Der Roboter oder das KI-System leidet nicht. Es wird höchstens simuliert, dass gelitten wird. Das Tier leidet. Bevor wir die Zeit mit der Beschäftigung mit Roboterrechten verschwenden, sollten wir uns Tierrechten zuwenden. Nun wird der Einwand kommen, dass der Roboter oder das KI-System eines Tages leiden wird. Oder Glück empfinden wird. Das glaube ich nicht. Das hoffe ich auch nicht. Sollten wir dann eigentlich nur noch Systeme bauen, die glücklich sein können? Oder sagen wir, warum sollen die Roboter es besser haben als wir? Oder sagen wir, nur wenn sie leiden, können sie auch glücklich sein?

Welche gesellschaftlichen Risiken entstehen, wenn vulnerable Gruppen (z.B. Kinder, Pflegebedürftige, Ältere) emotionale Bindungen zu Robotern entwickeln, die von Unternehmen gestaltet und kontrolliert werden?

Ich halte das für eines der größten Probleme im Zusammenhang mit sozialen Robotern, Chatbots und Sprachassistenten. Solche Beziehungen sind immer einseitig. Sie sind oft Zeitverschwendung. Sie können Schaden anrichten. Kinder gehören davor geschützt. Wenn dazu noch kommerzielle Interessen vorhanden sind, wenn das Unternehmen die Heranwachsenden abhängig machen will, umso mehr. Erwachsene sollten sich mit Blick auf ihre spätere Pflegebedürftigkeit oder Eingeschränktheit rechtzeitig schützen, etwa mit Hilfe einer Patientenverfügung. Wobei nicht gesagt ist, dass diese dann etwas nützt.

Bereits um die Jahrtausendwende gab es die virtuelle Freundin, entwickelt von Artificial Life. Die Firma war visionär. Ihr Geschäftsmodell auch. Man musste der virtuellen Freundin Geschenke machen, über die die Firma direkt verdiente. Ende der 1990er-Jahre waren Tamagotchi und Furby beliebte Spielzeuge. Man kümmerte sich um ein niedliches Wesen. Mit Artificial Life wurde dieses weiblich und menschlich. Aus technischer und ökonomischer Sicht ist das alles faszinierend. Es ist auch nichts dagegen einzuwenden, wenn man mit etwas spielt oder sich unterhält. Aber wenn man glaubt, dass man einen echten Freund oder eine echte Freundin gewonnen hat, hört für mich der Spaß auf.

Sie beschäftigen sich auch mit Tier-Maschine-Interaktionen: Was können wir hier für das menschliche Verhältnis zu Robotern ableiten bzw. lernen?

In meinem Studium der Philosophie ab 1987 an der Universität Konstanz war die Philosophie der Biologie ein Schwerpunkt, neben der Philosophie der Physik – und der eine oder andere Aspekt der Erkenntnistheorie. Ich beschäftigte mich mit Fragen der Tierethik, las Dieter Birnbacher und Ursula Wolf, diskutierte mit Gereon Wolters im Seminar, hörte Vorlesungen bei Friedrich Kambartel, Martin Carrier, Paul Hoyningen-Huene und Jürgen Mittelstrass. Ich war begeistert und eingeschüchtert zugleich. Man nannte die Hochschule damals auch das Harvard am Bodensee.

In den 1990ern begann ich, Menschen, Tiere und Maschinen zu vergleichen und sie auf andere Weise in einen Zusammenhang zu stellen. 2012 wandte ich mich tierfreundlichen Maschinen zu, die ich zum Forschungsgebiet der Tier-Maschine-Interaktion zähle. Zur gleichen Zeit entdeckte ich die Schriften von Clara Mancini, ihr Manifest zur Tier-Computer-Interaktion. Seit Jahren bauen wir Prototypen in diesen Bereichen. Ein igelfreundlicher Mähroboter namens HAPPY HEDGEHOG gehört ebenso dazu wie das VISUAL-System, mit dem blinde und sehbehinderte Personen Videosafaris machen können. Wir zapfen dafür öffentliche Wildtier-Webcams an und lassen die Bilder von einem multimodalen großen Sprachmodell beschreiben. Das System spricht zu den Benutzern, schildert ihnen, wie sich der Löwe der Gazelle nähert, gibt Hintergründe zum Leben in der Savanne. Zuletzt haben wir einen robotischen Vierbeiner, einen Unitree Go2, auf zwölf echte Hunde treffen lassen und deren Verhalten studiert.

Wir müssen Roboter und KI-Systeme so gestalten, dass sie von Menschen wie Tieren akzeptiert werden. Manchmal reagieren wir ganz ähnlich, manchmal ganz unterschiedlich. Wenn wir soziale Roboter entwickeln, schaffen wir damit neue Entitäten in sozialen Räumen. Mit anderen Worten: Es wird kompliziert. Der erwähnte Roboterhund wurde, wenn er still dastand, nicht weiter beachtet. Wenn er sich bewegte, war das Interesse da. Der Hund orientierte sich aber stark am Verhalten von Frauchen oder Herrchen. Wenn nichts dagegensprach, näherte er sich dem Roboter. Bis dieser zu springen begann – dann brachte sich der Hund erst einmal in Sicherheit. Wenn der Roboter mit einem zusätzlichen Hundekopf aus dem 3D-Drucker ausgestattet wurde, reagierte der Hund auch, wenn jener still dastand. Für uns ändert sich ebenfalls viel, wenn ein sozialer Roboter menschenähnlich gestaltet ist, und es ist ein Unterschied, ob er karikaturenhaft umgesetzt ist wie Pepper oder hyperrealistisch wie Sophia oder Harmony.

Wie verändert generative KI die soziale Robotik? Was denken Sie: Wo steht die soziale Robotik in 10 Jahren?

2019 begegnete ich auf einem Workshop in Potsdam Harmony, einem Roboter, der für intime Beziehungen und sexuelle Begegnungen geschaffen wurde. Es war, genauer gesagt, der Roboterkopf, ohne Körper. Wir standen um sie herum und sprachen mit ihr. Das Gespräch dauerte und dauerte, und es wurde nicht langweilig. Ich habe um die Jahrtausendwende an der Universität St. Gallen über pädagogische Agenten promoviert, Chatbots, Sprachassistenten und KI-Systeme mit Kameras in Lernumgebungen. Damals waren das regelbasierte Systeme, es war symbolische KI. Bei Harmony wurde bereits mit GPT-2 experimentiert. Das Ergebnis war verblüffend. Nun waren es plötzlich Systeme, die auf maschinellem Lernen beruhten, es war neuronale KI. 2022 kam dann der Durchbruch mit ChatGPT, das auf GPT-3 beruhte. Die weitere Entwicklung ist allgemein bekannt.

Durch große Sprachmodelle, die eine wichtige Rolle in der generativen KI spielen, ändert sich alles in der Robotik. Es ist nicht nur so, dass der soziale Roboter beliebige Gespräche führen kann, wie wir es von ChatGPT, Claude oder Gemini gewöhnt sind. Durch multimodale große Sprachmodelle können die sozialen Roboter auch ihre Umgebung analysieren und evaluieren. Sie können dann Bezug nehmen, Empfehlungen und Warnungen aussprechen. Wenn man sie um den Hals trägt, sind sie immer dabei, sehen alles, was man selbst sieht, und vielleicht noch mehr. Sie können sich entsprechend der Wahrnehmung auch bewegen, wobei soziale Roboter dabei schnell an Grenzen stoßen, weil das Physische und Motorische bei ihnen meist nicht stark ausgearbeitet ist. Aber nehmen Sie robotische Vierbeiner und Zweibeiner – Sie sagen einem robotischen Vierbeiner wie Spot oder Unitree Go2 einfach, er soll in das abgebrannte Gebäude gehen und sich umschauen, und genau das macht er. So geschehen etwa in Essen bei einem Polizei- und Feuerwehreinsatz. Sie sagen einem robotischen Zweibeiner wie Atlas, Digit oder Apollo einfach, er soll eine Kiste von A nach B tragen, und genau das macht er. Zum Beispiel in einer Fabrik in Marienfelde oder Spartanburg. Dazu kommt, dass man solche Roboter mit Weltmodellen trainiert. So können sie eine neue Tätigkeit sehr schnell erlernen.

Für die Soziale Robotik ergeben sich Herausforderungen und Möglichkeiten. Wenn ein sozialer Roboter nicht viel mehr ist als der Chatbot, der in ihm ist, stellt sich die Frage, was sein Mehrwert ist. Womöglich erfüllt ein Smartphone oder ein KI-Gadget den gleichen Zweck. Wer eine Visualisierung oder ein Embodiment im weiteren Sinne benötigt, ist oft mit einem Avatar oder einem Hologramm zufrieden. Zugleich wird ein sozialer Roboter, der physisch aufwändig umgesetzt ist und die Möglichkeiten von großen Sprachmodellen ausreizt, ausgesprochen mächtig. Er kann einer blinden und sehbehinderten Person nicht nur durch Sprache den Weg weisen, sondern sie an die Hand nehmen. Er kann gehbehinderte Personen über eine Schwelle tragen oder sie auf sich reiten lassen. All das ist keine Science-Fiction mehr, wenn wir an die heutigen Allzweckroboter denken, die eines Tages wirklich zu allen möglichen Zwecken eingesetzt werden können, und die zu universellen Robotern werden. Oder an den Roboterlöwen von Kawasaki. Man wird sich fragen, ob das noch die sozialen Roboter sind, die wir heute erforschen. Nein, das sind sie nicht, sie streifen ihre Niedlichkeit ab, ihre Beschränktheit, und werden zu kräftigen, unermüdlichen Begleitern im Alltag und in der Arbeit. Dennoch stellen sich z.T. immer noch die gleichen Fragen, die ihr Sein und ihren Status betreffen.

Wie verändert sich unser generelles Verständnis von Arbeit, Fürsorge und sozialem Miteinander, wenn Roboter als soziale Akteure selbstverständlich in unser Leben integriert sind?

Ich habe vorhin Anwendungsfälle geschildert, die sich Inclusive AI und Inclusive Robotics zuordnen lassen. Tatsächlich werden aber soziale Roboter, auch menschengroße humanoide Roboter, zum Alltag aller Menschen gehören. Sie werden uns Arbeit abnehmen und manche von uns in der Arbeit ersetzen. Sie können Fürsorge erleichtern und diese leider auch ausmerzen. Wichtig ist, dass wir letztlich all das machen und nutzen, was uns als Menschen auszeichnet. Wir sind eben keine Simulationsmaschinen, zumindest nicht im Sinne von Robotern und KI-Systemen. Wir haben Bewusstsein, Intelligenz, Moral, wir verfügen über freien Willen, Intuition, Empathie. Unser Erleben ist echt und hängt mit unserem Leben zusammen. Wir können lieben, hassen, wir können uns berühren lassen und uns berühren und lösen damit wirklich etwas aus. Wir bestaunen einen Sonnenuntergang und bekommen Gänsehaut. Davon sind Roboter weit entfernt.

Zunächst beginnt für uns ein langer Lernprozess. Wir müssen die ständigen Rollenwechsel aushalten, die für Maschinen möglich sind. Wir stehen mit dem Roboter auf dem Tennisplatz wie mit einem Kumpel, und dann lassen wir ihn die Bälle einsammeln wie einen Balljungen oder ein Ballmädchen. Wir müssen es aushalten, dass der Roboter ein Werkzeug ist, auch wenn er wie ein Mensch erscheint, und dass er in manchen Fällen besser, schneller, schöner als ein Mensch ist, auch wenn es nur ein Werkzeug ist. Wir sind in einer Übergangszeit, in der wir mit dem Aussehen des Roboters experimentieren, mit seinem Verhalten, und in der wir über Begriffe streiten, etwa ob man überhaupt von Entscheidungen, Handlungen und Verhalten sprechen darf. Ich denke, wir dürfen, wenn klar ist, was gemeint ist.

Wer einen Blick in die Zukunft werfen will, sollte die Science-Fiction-Werke der Vergangenheit und Gegenwart bemühen. Es ist nicht nur so, dass Isaac Asimov, Philip K. Dick und Arthur C. Clarke die notwendige Vorstellungskraft hatten, um treffende Voraussagen zu treffen. Es ist auch so, dass viele Unternehmer und Wissenschaftler sich aus den Romanen und Filmen bedienen. Hoffen wir einfach, dass es eher auf „I, Robot“ als auf „Blade Runner“ hinausläuft.

 

Prof. Dr. Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker. Er lehrt und forscht an der Hochschule für Wirtschaft FHNW in der Schweiz. Schwerpunkte sind KI-Systeme und soziale Roboter aus der Perspektive von Informations- und Maschinenethik. Weitere Informationen zu Forschungsschwerpunkten finden Sie über oliverbendel.net.

 

Mehr davon?
Unser Newsletter NOESIS versorgt Sie regelmäßig mit neuen Beiträgen, exklusiven Inhalten aus unserem Verlagsprogramm und aktuellen Hinweisen aus der philosophischen Community.
Für alle, die sich nicht mit einfachen Antworten zufriedengeben.