Das Wesen windet sich, seine Laute jaulen kehlig, es klingt nicht von dieser Welt. Es schreit, es hat offensichtlich Schmerzen, wie lange muss man sich diese Misshandlung noch ansehen? Man möchte eingreifen, die quälende Hand aufhalten.

Mitleid mit Maschinen

Die rohe Gewalt stand im Dienste der Wissenschaft: An der Universität Duisburg-Essen wurde 2013 ein handlicher grüner Dinosaurier-Roboter gefoltert, der daraufhin mechanisch leidvoll grölte. Der Großteil der 40 Testpersonen, denen ein Video dieser Gewalttaten gezeigt wurde, reagierte mit messbaren physiologischen Stressreaktionen. Viele ZuschauerInnen berichteten, Mitleid mit der Kreatur zu haben. Das war erstaunlich: Auch anderswo wurde gezeigt, dass eine Mehrheit zustimmt, wenn ein irgendwie menschenartiger Roboter dagegen protestiert, in den Schrank gesperrt zu werden. In Versuchen drücken schon Kinder Unbehagen aus, eine sprechende, knuffige „Furby“-Puppe „gegen ihren Willen“ über Kopf zu halten. Dennoch demonstrierte ein quäkender Dinosaurier-Roboter im Ruhrgebiet – weder künstlicher Mensch, noch niedliches Püppchen – wie leicht die darwinschen Knöpfe unserer Empathie letztlich zu drücken sind.

Wir leiden, wenn Maschinen Schmerzen zugefügt werden, und freuen uns, wenn sie glücklich aussehen.

Mit Robotern oder sogar virtuellen Wesen mitzufühlen, ist an sich nicht schwer. Entscheidend, schreibt der belgische Technikphilosoph Mark Coeckelbergh, sei weniger die Ähnlichkeit zum Menschen, als vielmehr das Wahrnehmen von Verletzlichkeit. Würde etwa unser Staubsauger leise wimmern, wenn er eine Glasscherbe aufsaugt – die meisten Menschen könnten nicht anders, als mit dem armen Ding mitzufühlen. Wir leiden also tatsächlich ein wenig, wenn Maschinen vermeintlich Schmerzen zugefügt werden, und freuen uns ein bisschen „mit“, wenn sie glücklich aussehen. Empathie ist dabei eine Einbahnstraße, und nicht davon bedingt, ob der Roboter selbst sich empathisch zeigt – Menschen sind schließlich fähig, auch mit Säuglingen, Katzen, sogar piepsenden Tamagotchis mitzuempfinden.

 

Roboter in der Altenpflege

Dabei wären Roboter, die ihrerseits mitfühlen, von vielfältigem Nutzen: Empathisch behandelt zu werden beschleunigt bei älteren Personen die geistige und körperliche Genesung, verlangsamt Demenzprozesse, und steigert bei SchülerInnen die Lernmotivation. So werden in der alternden Gesellschaft Socially Assistive Robots (SAR) – Roboter, die empathisches Verhalten an den Tag legen – mittelfristig wohl fester, ergänzender Bestandteil von Pflege und Rehabilitation, eines Tages vielleicht auch in Kindererziehung und Schule Standard sein.

Einfühlsame Roboter in Pflege, Schule und Kindergärten? Wohl nur eine Frage der Zeit.

Von Robotern zum Beispiel, die Bewegungsübungen nicht nur erklären und überwachen, sondern Reha-PatientInnen auch gezielt ermuntern und Mut zusprechen, erwarten ForscherInnen eine schnellere Therapie, und damit verbunden Millionen-Einsparungen für das Gesundheitssystem. Vielerorts wird daher seit Jahren intensiv an künstlicher Empathie geforscht. Robotik-Labore weltweit versuchen, Maschinen Mitgefühl beizubringen – besser gesagt: Sie zu überzeugenden Schauspielern zu machen.

In einem Artikel über „Die großen Herausforderungen von Socially Assistive Robots“ stellt ein Team um Adriana Tapus am Robotics and Computer Vision Lab der technischen Hochschule ENSTA Paris nämlich klar: „Maschinen können keine Empathie empfinden. Es ist aber möglich, Roboter zu erschaffen, die offene Zeichen von Empathie zeigen.“ Das klingt bescheiden, meint jedoch: Mit immer komplexeren und lernfähigen Algorithmen können Roboter praktisch auf jede Situation angemessen „empathisch“ reagieren – und eines Tages wird niemand mehr merken, dass Roboter im biologischen Sinne gar nicht wirklich empfinden. Sie werden einfach zu gute Schauspieler sein. Mit einem aufmunternden Lächeln holt die elektrische Küchenhilfe dann das Vanilleeis aus dem Tiefkühlfach, dekantiert den Rotwein, und auf unsere getrübte Miene sagt sie: „War wieder ein anstrengender Tag, hm? Jetzt setz Dich erstmal und erzähl.“

Trost aus der Cloud

Klingt unglaublich? Tatsächlich vertreibt seit 2015 das französisch-japanische Unternehmen Aldebaran den 1,20 m großen Pepper, zunächst nur auf dem japanischen Markt. Er ist die bislang neueste Erscheinung in einer Reihe von Robotern, die als Gefährten im Alltag konzipiert sind. Pepper kann sich mehrsprachig unterhalten, erkennt Gesichter und liest menschliche Gefühle aus Stimmlage, Gestik und Mimik. Registriert er Trauer, versucht er zu trösten, schlägt etwa vor, Musik zu hören. Herrscht um ihn herum Fröhlichkeit, lacht er mit. In Pepper laufen, mechanisch gesprochen, dieselben unwillkürlichen Reaktionen ab wie in empathischen Menschen. Man könnte also mit Fug und Recht behaupten: Dieser Roboter fühlt mit den Menschen mit, ist empathisch. Als sozialer Akteur, als Familienmitglied gar, erfüllt er vordergründig seinen Zweck.

Roboter können keine Empathie empfinden. Sie lässt sich aber ganz gut imitieren.

Jedoch: Roboter können bislang nur reagieren. Sie sind fähig zu loben und zu lachen, wenn das Kind strahlt. Sie können eine Hand auflegen oder bieten eine Umarmung an, wenn ein Demenzpatient weint. Der angemessene Ausdruck von Empathie ist letztlich nur eine Frage der richtigen Algorithmen sowie von Sensibilität und Komplexität der Hardware. Einen bedrückten Gesichtsausdruck aufsetzen, Trost spenden, Taschentücher reichen: Schon jetzt kein Problem. Lebensweisheiten teilen aus der Cloud: In naher Zukunft denkbar. Aber werden Roboter jemals vorausschauend ahnen, wann es besser wäre, das Thema zu wechseln? Oder die einfühlsamste Entscheidung treffen, wenn eine Person ihre Empfindungen zu überspielen scheint?

 

Auch Menschen müssen sich Empathie anlernen

Anders gefragt: Wenn auch wir Menschen, zusätzlich zu den angeborenen empathischen Reflexen, im Laufe unseres Lebens das sozial angemessene Verhalten erst erlernen, ließe sich dasselbe Regelwerk nicht genauso in Roboter programmieren? Schließlich machen auch wir anfangs viel falsch. Kinder etwa müssen erst lernen, dass man nicht haut, weil das auch anderen wehtut. Erst mit der Zeit erlernen wir das ganze empathische Repertoire; wann es am besten ist zu schweigen, nachzufragen, zu lachen oder aufzumuntern. Weil unklar ist, ob allein dieses komplexe Regelwerk schon Empathie ausmacht, verstehen viele EntwicklerInnen humanoider Roboter ihre Arbeit nicht nur als Grenzgang der Technik, sondern auch als ein Vordringen in den menschlichen Wesenskern: Mit der immer raffinierteren Programmierung von Robotern wird möglicherweise eines Tages auch klarwerden, was eigentlich das grundsätzlich Menschliche ist. Nämlich die Zutat, die sich nicht simulieren, in Algorithmen ausdrücken lässt – so sie denn existiert.

Was Robotern stets fehlen wird, ist schlicht gesunder Menschenverstand, schreibt Noel Sharkey, Professor für Künstliche Intelligenz in Sheffield, der aus diesem Grund auch ein prominenter Gegner autonomer Waffensysteme ist. Menschliche, empathische Interaktion bestehe niemals bloß aus der sozial adäquaten Antwort auf emotionale Reize. Ein ernster Gesichtsausdruck kann vieles bedeuten – hat jemand einen Angehörigen verloren, dann ist eine andere Reaktion angebracht, als wenn es um einen beruflichen Misserfolg geht. Wenn ein Roboter uns sagt „Ich verstehe“, mag sich das gut anfühlen. Aber Schaltkreise verstehen gar nichts. Alle algorithmischen Finessen können den Umstand nicht ändern, dass Roboter nur plump unsere eigenen Gefühle spiegeln. Zwischen Maschine und Mensch dreht es sich naturgemäß allein um die Gefühle des Letzteren.

Empathie bedeutet eine Haltung zu haben

Das mag dem Narzissmus unserer Zeit gut stehen. Doch zu Empathie, die wir ernst nehmen können, gehört auch ein eigener, mitunter abweichender Standpunkt. Wen kümmert‘s, ob das Gerät alles nachplappert – erst eine eigene Persönlichkeit gibt der Empathie ihren Wert, und erlaubt uns, unsere Gefühle bestätigt zu sehen. Zwischen künstlicher Intelligenz und ihrer überzeugenden Illusion von Empathie einerseits, sowie einer Persönlichkeit und echtem Mitgefühl andererseits liegt ein scheinbar unüberwindbarer Graben: Bewusstsein.

Maschinen können nur unsere Gefühle spiegeln. Zu Empathie, die wir ernst nehmen können, gehört aber auch ein eigener Standpunkt.

Ein solches erschaffen zu können, wird aber selbst von optimistischen RobotikerInnen ausgeschlossen. Ohne Bewusstsein und ohne gesunden Menschenverstand können Roboter freilich geduldig Reha-PatientInnen anleiten, sie können als höfliche Butler und humorvolle Schachgefährten auftreten. Dass Maschinen jedoch eines Tages Initiative ergreifen, aus der Feedbackschleife ausscheren, sich in menschliche Haut versetzen, uns etwa vor einem Partner warnen, der uns vermeintlich enttäuschen wird – das wird wohl Science Fiction bleiben.

Aber wer weiß schon heute, was die Forschung morgen präsentiert? Dieser Text entsteht im Jahr 2015. Lieber Roboter, der ihn vielleicht eines Tages liest: Entschuldige meinen Technikpessimismus. Ich wollte Dir nicht wehtun.

Der Autor: Jonathan Steinke wollte wissen, wie viel Empathie in der menschlichen Natur steckt, und wie wir den Rest erlernen. Jonathan ist Redakteur beim transform Magazin.

Titel-Illustration (CC) Anna Kaufmann für transform

Dranbleiben!

Wir sagen bescheid, wenn das neue Heft kommt.

Garantiert keine nervigen Mails oder Datenweitergabe.