Pepper-Blog (33) Grüße aus Honkong
Wie können Roboter noch menschlicher programmiert werden? Darum ging es bei einer internationalen Konferenz in Honkong, von der uns Wissenschaftler Thomas Sievers berichtet.
Moin Thomas, du bist als Wissenschaftler der Universität Lübeck in Sachen Pepper gerade viel unterwegs. Erst Katar, dann Kopenhagen und nun an die Südküste Chinas.
Thomas Sievers: Ja, vor kurzem war ich in Hong Kong auf einer Konferenz, wo es auch um soziale Robotik ging und ich eine Veröffentlichung vorgestellt habe. Konkret ging es darum, dass Pepper in dieser Studie quasi mit Leuten Dialoge geführt hat und er diese Dialoge dann im Anschluss auf ihren Emotionsgehalt hin bewertet hat. Also er sollte bewerten, ob der Dialog jetzt freudig oder angestrengt war, hat also die Tonalität der Gespräche bewertet.
Mit dem Ziel Pepper noch menschlicher wirken zu lassen?
Sievers: Genau, um ihn menschlicher reagieren zu lassen und überhaupt die Möglichkeit zu geben, einzuschätzen, wie ist mein Gesprächspartner gerade so drauf? Die Quintessenz ist, dass es ganz gut geht mit den Methoden, die wir uns dazu überlegt haben.
Wie funktioniert das? Vielleicht kannst du ein bisschen tiefer einsteigen.
Sievers: Also wir haben jetzt im Prinzip einmal das reine ChatGPT im Hintergrund genutzt, um die roboterseitigen Dialoge erstens zu generieren, und dann zweitens auch den ganzen Dialogverlauf durch ChatGPT einschätzen zu lassen. Zusätzlich haben wir noch eine Variante probiert, wo wir die kameraseitige Gesichts- beziehungsweise Emotionserkennung des Roboters miteinbezogen haben.
Also kann er jetzt schon Emotionen besser einschätzen als vor einem Dreivierteljahr?
Sievers: Das würde ich jetzt so nicht sagen. Ganz soweit sind wir noch nicht, aber das ist natürlich der Weg den wir gehen wollen, dass Pepper seine Sensordaten aus der realen Welt mit der generativen KI austauscht. Wir lernen gerade den Umgang mit den Möglichkeiten, die auch ChatGPT da bietet.
Was war in Hongkong denn unter den Wissenschaftlern der Tenor, oder die Hoffnung? Dass da einfach noch menschenähnlichere beziehungsweie glaubwürdigere Dialoge möglich sind?
Genau, die Hoffnung ist generell, dass man es schafft, so eine Maschine nicht menschenähnlicher zu machen, das wäre vielleicht der falsche Ausdruck, aber leichter von Menschen verstehbar zu machen.
Damit Roboter wie Pepper Emotionen besser "verarbeiten" können bedarf es aber nicht nur besonderer Sensoren, die zum Beispiel optische, akustische (oder andere Sinnesdaten) liefern, sondern sie benötigen auch einen erweiterten Verstehens-Horizont, der es ihnen ermöglicht, diese Daten situativ einzuordnen und danach konkret zu handeln, oder?
Sievers: Ja, dabei geht es um ein kognitionsähnliches Verständnis des Roboters für die Welt um ihn herum. Das ist aber schon ein sehr spezielles Thema, was man nicht so einfach mit zwei drei Sätzen erklären kann.
Okay, ich bin kein Informatiker oder Roboterexperte, aber vielleicht können wir da doch noch einmal etwas tiefer bohren? Damals in der Schule hatte ich kurz Berührung mit der Programmiersprache BASIC - heute lernt man ja eher JAVA, aber wer aktuell ganz vorn in der Robotertechnik mitmischen will, der sollte schon mal etwas von ACT-R gehört haben, oder?
Sievers: Ja, wir verwenden ACT-R im Moment als kognitives Modell, um letzten Endes den Roboter durchschaubarer und menschlicher zu machen, was seine Reaktionen und sein Verständnis angeht. Ursprünglich wurde ACT-R bereits in den 90er-Jahren von Entwicklungspsychologen entwickelt um menschliches Denken zu simulieren.
Von diesem interdisziplinären Innovationsschub soll Pepper dann natürlich profitieren.
Sievers: Pepper und nicht nur er alleine. Das ist die Idee, weil das ist übertragbar natürlich auch auf andere Roboter und andere Programmiersprachen mit denen man ACT-R koppelt. Da sitze ich gerade dran. Im Prinzip geht es um die Programmierung eines mentalen Modells oder einer inneren Vorstellung, die wir Menschen ja auch von unserer Umgebung permanent haben, und die wir aufbauen im Laufe der Jahre.
Wenn man das plastisch beschreiben möchte: Wenn ich zum Beispiel in einen Raum komme und sehe da eine Einbuchtung in der Wand, greife ich als Roboter auf meinen Erfahrungsspeicher zurück, erkenne "Tür", suche "Klinke" und rufe mir dann ins Gedächtnis, welche Bewegung ich mit wieviel Kraftaufwand ausführen muss, damit ich die Tür öffnen kann. Das ist verkörpertes Weltwissen, worüber wir als Menschen gar nicht nachdenken. Wenn hinter dieser Tür dann plötzlich noch ein Mensch erscheint, wird es für den Roboter auch nicht einfacher.
Sievers: Genau, und es geht auch darum, mit Menschen zu kollaborieren, also natürlich zusammenzuarbeiten, da muss man ja sicherstellen, dass beide Wesen sozusagen irgendwie die gleiche Vorstellung von bestimmten Dingen haben, zumindest von denen, an denen sie gemeinsam arbeiten sollen. Was wir brauchen werden, denke ich, sind eben Roboter, die auf eine menschenähnliche Art mit Menschen Umgang haben, die vor allem auch ein Verständnis für das haben, was gerade notwendig ist und wie der Mensch gerade tickt und das kann natürlich ein Staubsaug- oder Bodenwisch-Roboter nicht, das ist auch nicht seine Aufgabe.
Spannend. Wir bleiben dran. Vielen Dank für das Interview.
Das Interview führte Lornz Lorenzen.