Wie Maschinen Emotionen erspüren
Das Fraunhofer IIS forscht an "EmotionAI": Der Verknüpfung von Sensoren und Künstlicher Intelligenz, die automatisiert menschliche Gefühle analysieren können.
Es gibt Tage, da läuft es einfach nicht. Zahllose E-Mails sind abzuarbeiten. Hinzu kommen Telefonkonferenzen, und dann gibt es vielleicht noch Streit im Büro. Wenn man dann abends ins Auto steigt, fährt die Anspannung mit. Man fährt forscher, ist unaufmerksam – und schon kracht es. Hilfreich wären in solchen Momenten Assistenzsysteme, die den Zustand des Fahrers oder der Fahrerin erkennen – eine Kamera, die die Anspannung im Gesicht wahrnimmt, die gerötete Haut oder den Schweiß auf der Stirn; oder ein Sensor im Lenkrad, der den hohen Pulsschlag erspürt. Das Auto könnte dann automatisch auf ein Beruhigungsprogramm umschalten und die Klimaanlage auf Wohlfühltemperatur bringen oder beruhigende Musik abspielen.
Diese Szene ist keine Zukunftsmusik. Das Fraunhofer IIS beschäftigt sich intensiv damit, die Emotionen und die Stimmung von Personen mithilfe von Sensoren zu analysieren – nicht nur für intelligente Fahrerassistenzsysteme, die Stress erkennen, sondern zum Beispiel auch, um festzustellen, wie Menschen auf ein bestimmtes Produkt reagieren. Die Forschenden sind inzwischen sogar in der Lage, in Gesichtern Schmerzen zu erkennen – etwa bei dementen Personen, die nicht mehr mitteilen können, wie es ihnen geht. Die Rede ist von EmotionAI, der Verknüpfung von Sensoren, die Körperdaten erfassen und von Künstlicher Intelligenz (KI), die aus diesen Daten den Gemütszustand einer Person herausliest. »Unsere Arbeit ist besonders, weil wir die Informationen vieler verschiedener Sensoren miteinander verknüpfen«, sagt der EmotionAI-Experte Jaspar Pahl – etwa das EKG, das den Puls misst, Kameras, die das Gesicht der Probandinnen und Probanden beobachten oder sogar die Elektrogastrographie, die von außen die Darmaktivität misst. Denn auch die kann ein Maß für Anspannung sein.
Höhere Qualität dank vieler Sensoren
Das Fraunhofer IIS bietet die Gefühlserkennung als Dienstleistung an. Zum einen für Forschungsteams, die an wissenschaftlichen Fragestellungen arbeiten, selbst aber nicht über eine solche Vielfalt an Sensoren verfügen. Zum zweiten Firmen, die neue Produkte wie zum Beispiel Systeme zur Zustandsüberwachung von Fahrenden entwickeln. Die Marktforschung wiederum will testen, wie Probandinnen und Probanden auf Produkte reagieren – etwa ein Waschmittel mit neuem Duft. Jaspar Pahl und das Team setzen auf viele verschiedene Sensoren, weil das die Schwächen eines einzelnen ausgleicht. »Kameras sind empfindlich gegenüber Gegenlicht, EKGs können durch die Abstrahlung von elektrischen Geräten gestört werden. Setzt man mehrere Sensoren ein, wird die Analyse durch die KI zuverlässiger, störungsfreier und besser.« Für die Versuche wurde am Institut in den vergangenen Jahren die »ExpoBox«entwickelt – ein kleiner Raum, in dem Probandinnen und Probanden mit der ganzen Fülle an Sensoren vermessen werden können. Hier können Hersteller auch testen, welcher Sensor später im Alltag praktikabel und zugleich zuverlässig ist. Um den Stresslevel von Autofahrenden zu messen, könnte es zum Beispiel sinnvoller sein, einen Pulsmesser im Lenkrad zu montieren, als eine Kamera, die durch die Sonne oder die Scheinwerfer anderer Autos irritiert wird.
Unbekannte Zusammenhänge entdecken
Für die Analyse der Sensordaten haben die Expertinnen und Experten am Fraunhofer IIS in den vergangenen Jahren selbstlernende Algorithmen entwickelt. Diese sind in der Lage, aus der Vielfalt der Informationen, bestimmte Muster herauszulesen, die auf den Gefühlszustand der Probandinnen und Probanden schließen lassen. »Ein Mensch wäre niemals in der Lage, in so einer Datenmenge Zusammenhänge zu erkennen«, sagt Jaspar Pahl. Für ihn ist die Analyse von Emotionen eines der wichtigsten künftigen Werkzeuge für die Zusammenarbeit von Mensch und Maschine, weil sich damit ungeheuer viel machen lasse, wenn man die Technik erst einmal eingeführt habe. Eine Kamera im Auto zum Beispiel könne erkennen, ob die Person am Lenkrad müde sei – zusätzlich aber auch, ob sie schwitze oder gestresst sei. Künftig soll es sogar möglich sein, dass die Maschine anhand des Zustands des Menschen voraussieht, was zu tun ist – bevor die Nutzenden einen Befehl geben müssen, sagt Jaspar Pahl.