Wie man einen Roboter zum Lächeln bringt

In einer völlig neuen Falte des alten Sprichworts Smile and the world smiles with you, stirnrunzeln und stirnrunzelnd allein, produzieren japanische Forscher eine Generation von Robotern, die menschliche Mimik erkennen und darauf reagieren können. Ein Team unter der Leitung von Fumio Hara, einem Maschinenbauprofessor an der Science University of Tokyo, hat einen weiblichen Roboterkopf gebaut, der Angst, Glück, Überraschung, Traurigkeit, Wut und Ekel sowohl erkennen als auch ausdrücken kann.

Das Hauptziel von Haras Projekt, das durch einen fünfjährigen Zuschuss von 3 Millionen US-Dollar von der japanischen Regierung unterstützt wird, besteht nicht nur darin, eine Roboterversion von monkey-see, monkey-do zu produzieren. Stattdessen besteht das Ziel darin, Roboter zu schaffen, die sich in uns einfühlen und uns ein angenehmeres Gefühl geben, wenn sie emotionale Veränderungen in unseren Gesichtern lesen. Die Forscher erwarten, dass solche visuell emotionalen Roboter von Fabrikarbeitern geschätzt werden würden, die gezwungen sind, sich die Leitung mit elektronischen Kollegen zu teilen. Die Roboter können sogar als Lehrmittel für bestimmte autistische Kinder nützlich sein, die eine Kommunikationsstörung haben, die es ihnen erschwert, Gesichtsausdrücke zu verstehen und richtig darauf zu reagieren.

Beam es runter

Diese Geschichte war Teil unserer Ausgabe vom Oktober 1997



  • Siehe den Rest der Ausgabe
  • Abonnieren

Ein überraschendes Merkmal von Haras Forschung ist ihre Entstehung. Während des großen wirtschaftlichen Aufschwungs in Japan in den 1970er Jahren kam es zu Unfällen in neu gebauten Chemieanlagen. Hara vermutete, dass Anlagenbetreiber Schwierigkeiten hatten, Probleme beim Lesen von Reihen digitaler Anzeigetafeln zu erkennen. Ich dachte, sie bräuchten einen globaleren Überblick über das, was in der Fabrik vor sich geht, sagt er, und wenn etwas schief gelaufen ist, könnte dies zum Beispiel als trauriges Gesicht ausgedrückt werden.

Leider standen die Ingenieure bald vor großen Hürden. Sie stellten fest, dass es nicht nur schwierig war, Gesichtsausdrücke den vielfältigen Betriebsfehlern zuzuordnen – von einer unordentlichen Fabrikhalle bis hin zu gefährlichen Temperatur- oder Druckänderungen im Herstellungsprozess –, sondern auch, dass einzelne menschliche Bediener dieselben Ausdrücke auf unterschiedliche Weise interpretierten . Die Aufgabe, Gesichtsausdrücke an Pflanzenbedingungen zu binden, erwies sich schließlich als so komplex, dass Hara die Forschung aufgab.

Aber als einer seiner Studenten Mitte der 1980er Jahre Interesse an der Roboterforschung bekundete, fragte sich Hara, ob der Gesichtsausdruck-Ansatz, obwohl er auf Pflanzenebene ein Misserfolg war, zwischen einzelnen Robotern und Menschen funktionieren könnte. Er nutzte zunächst Arbeiten von Paul Ekman, einem Psychologieprofessor an der University of California in San Francisco, der die Bewegungen des menschlichen Gesichtsausdrucks in 44 Kategorien oder Aktionseinheiten unterteilte. Jede Aktionseinheit würde einer individuellen Bewegung entsprechen, wie zum Beispiel dem Hoch- oder Herunterziehen der Augenbrauen oder dem Schürzen der Lippen. Das Kombinieren von Aktionseinheiten auf verschiedene Weise erzeugte unterschiedliche Ausdrucksformen. Ekel bedeutet zum Beispiel, die Stirn zu senken, die Nase zu rümpfen und das Kinn zu heben.

Beginnend in den 1990er Jahren machte sich Haras Gruppe daran, sechs Ausdrücke zu schaffen – Angst, Glück, Überraschung, Traurigkeit, Wut und Abscheu – die laut Ekman für alle menschlichen Kulturen universell sind. Das Team konstruierte einen Aluminium-Roboterkopf mit 18 luftdruckbetriebenen Mikroaktuatoren – im Wesentlichen winzige Zahnräder –, die 26 Gesichtsbewegungen nachahmen konnten. Der nächste Schritt bestand darin, ein Gesicht aus Silikongummi aus einer Form zu gießen, die einem der männlichen Studenten im Labor entnommen wurde. Da die rein männliche Gruppe eine weibliche Präsenz im Labor wünschte, feminisierte sie das männliche Gesicht, indem sie eine Naturhaarperücke, geschminkte Wangen und Lippenstift hinzufügte. Der Kopf wurde auch mit falschen Zähnen ausgestattet.

Durch Versuch und Irrtum verbanden die Forscher winzige Drähte von den Aktuatoren mit Punkten auf der Maske, die bei Bewegung die Aktionseinheiten wiederherstellen würden, die erforderlich sind, um die gewünschten sechs Ausdrücke zu reproduzieren. Auch der Kopf und die Augäpfel des Roboters wurden so konstruiert, dass sie menschenähnliche Bewegungen ausführen. Schließlich setzten die japanischen Ingenieure eine winzige Kamera in das linke Auge des Roboters ein, um ein menschliches Gesicht in etwa einem Meter Entfernung zu scannen. Ein an die Kamera angeschlossener Computer ermittelte den Gesichtsausdruck der Person, indem er nach Helligkeitsschwankungen in verschiedenen Gesichtsbereichen suchte.

Der Computer beobachtete Veränderungen in den dunklen Bereichen – Augen, Mund, Nase und Augenbrauen – die auftreten, wenn ein Gesicht von seinem neutralen, emotionslosen Ausdruck zu einem von sechs Emotionen wechselt. Mithilfe eines auf neuronalen Netzwerken basierenden Selbsttrainingsprogramms war der Computer schließlich in der Lage, innerhalb von 60 Millisekunden zu erkennen, wie Veränderungen der Helligkeitsmuster des Gesichts einer Person mit dem Ausdruck eines bestimmten Gefühls zusammenhängen. Diese Verarbeitungsgeschwindigkeit kombiniert mit Verfeinerungen im Design der Aktuatoren ermöglichte es dem Silikongesicht des Roboters, mit menschlicher Geschwindigkeit auf Veränderungen des Ausdrucks zu reagieren.

Der Roboter war überraschend genau und schätzte die Gesichtsausdrücke der Testpersonen im Durchschnitt in 85 Prozent der Fälle richtig. Es erging auch als Gesichtsdarsteller genauso gut. Tatsächlich identifizierte eine Gruppe von Schülern die Ausdrücke des Roboters in 83 Prozent der Fälle richtig. Im Vergleich dazu identifizierten dieselben Schüler in 87 Prozent der Fälle die Mimik professioneller Schauspieler.

Seit die ersten Berichte über die Leistung des Roboters in den frühen 1990er Jahren erschienen, wurde Hara von einigen unerwarteten Parteien angesprochen. Dazu gehörten ein Künstler, der daran interessiert war, eine seiner Meinung nach neue Kunstform zu schaffen – Menschen und Roboter reagieren aufeinander auf die Äußerungen des anderen – und mehrere Psychologen in Japan, die glauben, dass ein solcher Roboter bestimmten behinderten Kindern helfen könnte, die Schwierigkeiten zu überwinden, angemessene Ausdrücke zu manifestieren. Die Psychologen würden den Roboter als eine Art Zwei-Wege-Aufforderung fungieren lassen, um beispielsweise zu demonstrieren, wie ein glückliches Lächeln aussieht, und nach einer neutralen Miene durch Zurücklächeln anzuzeigen, wann das Kind gelächelt hat.

Kurzfristig arbeitet Haras Team an einem Mundroboter, dessen Aktuatoren die Lippenbewegungen beim Sprechen realistisch nachahmen. Ein solcher Roboter könnte Menschen mit Sprech- oder Sprachbehinderungen helfen, sagt Hara, denn Studien zeigen, dass mehr als 50 Prozent des Sprachverständnisses auf
Gesichtsausdruck und Bewegungen.

verbergen