Forscher kartieren Gesichtsbewegungen für emotionale Robotik

Forscher der Osaka University in Japan haben eine Methode entwickelt, um die Bewegungen des menschlichen Gesichts detailliert zu kartieren. Ihr Ziel ist es, die Fähigkeit von Robotern zur genauen Übermittlung von Emotionen und zur besseren Erkennung menschlicher Emotionen zu verbessern.

In ihrer Veröffentlichung mit dem Titel “Visualisierung und Analyse der Verteilung von Hautdehnung bei verschiedenen menschlichen Gesichtsbewegungen” im Fachjournal für Maschinenbau beschreiben sie, wie sie die unterschiedlichen Gesichtsausdrücke des Menschen erfasst haben.

Um dies zu erreichen, haben die Forscher das Gesicht einer Person mit 125 Tracking-Markern versehen. In ihrer Untersuchung haben sie insgesamt 44 verschiedene individuelle Gesichtsbewegungen wie das Blinzeln und Lächeln analysiert.

Bisher wurden Messungen am Gesicht vereinfacht durchgeführt, bei denen nur die Gesamtform des Gesichts und die Bewegung ausgewählter Hautpunkte vor und nach den Bewegungen berücksichtigt wurden. Die von den Forschern gewählte Methode ermöglicht präzisere Ergebnisse, indem sie eine Vielzahl von lokalen Verformungen erfasst, die durch Muskelbewegungen verursacht werden und die Haut dehnen und zusammenziehen lassen.

Die Forscher betonen, dass selbst scheinbar einfache Bewegungen erstaunlich komplexe Vorgänge darstellen können. Unter der Haut arbeiten verschiedene Gewebe, darunter Muskelfasern und Fettgewebe, zusammen, um im Gesicht Emotionen zu vermitteln. Diese Erfassung erfolgt äußerst detailliert und nuanciert, was es schwierig macht, diese Gesichtsausdrücke künstlich nachzuahmen.

Hisashi Ishihara, der Hauptautor der Studie, erklärt, dass wir aufgrund der Vertrautheit mit unseren Gesichtern die feinen Details nicht mehr bewusst wahrnehmen. Von einer technischen Perspektive aus betrachtet, sind sie jedoch bemerkenswerte Träger von Informationen. Indem wir die Gesichtsausdrücke von Menschen betrachten, können wir feststellen, ob sich hinter einem Lächeln Traurigkeit verbirgt oder ob jemand müde oder nervös ist.

Die von den Wissenschaftlern erfassten Informationen zur Mimik des menschlichen Gesichts können von anderen Forschern genutzt werden, um realistischere Roboter-Gesichter zu gestalten, unabhängig davon, ob es sich um digitale Gesichter auf Bildschirmen oder physische Gesichter von Androiden-Robotern handelt. Die durchgeführten Messungen tragen dazu bei, ein besseres Verständnis für die Spannungen und Kompressionen in der Gesichtsstruktur zu erlangen. Dies ermöglicht die Generierung von künstlichen Gesichtsausdrücken, die Emotionen präziser darstellen und natürlicher wirken.

Die japanischen Wissenschaftler betrachten ihre Studie jedoch als deutlich umfassender. Die gewonnenen Erkenntnisse könnten dazu verwendet werden, um beispielsweise Robotern beizubringen, menschliche Emotionen zu erkennen. Darüber hinaus könnten computergenerierte Gesichtsbewegungen, wie sie in Filmen und Computerspielen verwendet werden, optimiert werden. Die Forscher sind der Überzeugung, dass die erlangten Grundlagen nicht nur in der Robotertechnik, sondern auch in anderen Bereichen Anwendung finden könnten. Beispielsweise könnten sie zur Weiterentwicklung der Gesichtserkennungstechnologie sowie zur medizinischen Diagnose von Gesichtsanomalien genutzt werden. Bislang sind Ärzte bei der Diagnosestellung auf ihre intuitiven Fähigkeiten angewiesen.

Schlagwörter: Gesichtsbewegungen + Künstliche Gesichter + Robotergesichter

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 10. November 2023