07.09.2017

Der gleiche Satz kann je nach Intonation und Mimik eine unterschiedliche Bedeutung haben. Menschen reagieren intuitiv und passen ihre Reaktion darauf an. KI-Assistenten hingegen erwidern immer die gleiche Reaktion. Für Entwickler von Robotern und Bots ist es bisher schwierig, die menschliche Mimik nachzuahmen. Der von Facebook AI Lab entwickelte “Human-like Bot” soll deshalb künftig auf die visuellen Emotionen seiner Gesprächspartner reagieren können.

Facebook Bot erkennt den menschlichen Ausdruck

Der animierte Bot wird von einem intelligenten Algorithmus gesteuert, der während eines Videochats die Gesichtsmimik seines Gesprächspartners liest und analysiert. Neu ist, dass der Bot nicht nur vorgegebene Emotionen, sondern Muster in den Gesichtsausdrücken erkennen soll. Hierzu werden ausgewählte Gesichtsbereiche, sogenannte “Mikromimiken”, beobachtet, die für den menschlichen Ausdruck entscheidend sind und sich bei allen Menschen ähneln. Berücksichtigt die Künstliche Intelligenz also kontinuierlich die Mimik in der Interaktion, kann Sie daraus den Stimmungsverlauf der Konversation ableiten und entsprechend reagieren.

Die nächsten Schritte

Bisher erkennt der Facebook Bot nur einfache Emotionen, wie etwa Lachen. Ziel ist es, dass der Bot nicht nur imitiert, sondern lernt die komplexe Gesichtskommunikation zu verstehen. Der Bot soll so in Echtzeit auf seinen Gesprächspartner reagieren und eine geeignete Reaktion hervorbringen können. Dadurch wird die Interaktion mit dem Bot glaubwürdiger und vertrauensvoller.

Anwendung in der Virtual Reality

Im Bereich Virtual Reality könnte die neue Technologie auch Anwendung finden. Beispielsweise könnten Avatare glaubhafter animiert werden. Dazu müssen allerdings auch VR-Brillen entwickelt werden, die die menschliche Mimik in Echtzeit erfassen.