Wenn Computer lernen, menschliche Emotionen zu erkennen

31.05.2015 -  

Wenn Menschen und Maschinen miteinander kommunizieren, bestimmen derzeit in der Regel rein sachorientierte Dateneingaben und -ausgaben den Ablauf solcher Interaktionen. Emotionen und Stimmungen werden von den Computern jedoch nicht einbezogen, obwohl diese eine wichtige Rolle spielen. Wissenschaftler der Otto-von-Guericke-Universität Magdeburg (OVGU) und des Leibniz-Instituts für Neurobiologie (LIN) wollen diese Lücke nun in einem neuen Forschungsprojekt schließen. Das Projekt mit dem Namen EmoAdapt ist im Mai gestartet und wird vom Bundesministerium für Bildung und Forschung (BMBF) mit 1,57 Millionen Euro gefördert.

EmoAdapt entwickelt eine sogenannte Hirn-Computer-Schnittstelle weiter, mit deren Hilfe Emotionen erkannt und in die Interaktion zwischen Mensch und Maschine in Echtzeit integriert werden sollen. Bisher können Computer Emotionen wie Freude oder Ärger und Dispositionen wie Überforderung oder Müdigkeit nicht angemessen berücksichtigen. Um dieses neuartige interdisziplinäre Konzept in der Mensch-Maschine-Kommunikation zu entwickeln, arbeiten Wissenschaftler der Medizinischen Fakultät an der OVGU und dem LIN zusammen. Zu ihnen gehören:
     •     Prof. Dr. Dr. Johannes Bernarding (Projektleiter), Institut für Biometrie und Medizinische Informatik
            (OVGU)
     •     Dr. Kerstin Krauel, Universitätsklinik für Psychiatrie, Psychotherapie und Psychosomatische Medizin des
            Kindes und Jugendalters (OVGU)
     •     Prof. Dr. Eva Brinkschulte, Institut für Geschichte und Ethik in der Medizin (OVGU)
     •     Dr. André Brechmann, Speziallabor Nicht-Invasive Bildgebung (LIN)

Die Forscher versuchen, neueste Methoden der Hirnbildgebung und der Computertechnologie mit klassischen physiologischen Parametern wie Herzrate und Hautleitfähigkeit zu kombinieren, um Emotionen und Stimmungen bereits während der Interaktion zu identifizieren und diese Erkenntnisse in die Mensch-Maschine-Kommunikation zu integrieren. Die daraus abgeleiteten Muster helfen Computern, komplexe Interaktionen in Echtzeit innerhalb einer simulierten Welt – einer sogenannten Virtual Reality - an das Befinden der Nutzer anzupassen. Dies geschieht beispielsweise, wenn der Computer eine Über- oder Unterforderung bei einem Probanden während einer Aufgabenlösung erkennt und den Schwierigkeitsgrad der Aufgabe dementsprechend anpasst.

Welche Rolle hierbei individuelle Merkmale wie das Geschlecht und Alter in der Wirksamkeit und Akzeptanz dynamischer Mensch-Maschine-Interaktionen spielen, ist ebenfalls Gegenstand der Forschung. Das interdisziplinäre Team beleuchtet außerdem die Frage, welche ethischen, sozialen und rechtlichen Konsequenzen die Nutzung individueller Daten in der Mensch-Maschine-Kommunikation hat.

Perspektivisch könnten die Erkenntnisse aus dem EmoAdapt-Projekt im alltäglichen Leben angewendet werden. So ist es für die Forscher denkbar, dass technische Systeme beispielsweise die aktuelle Leistungsfähigkeit von Personen berücksichtigen, die komplexe Maschinen bedienen. Sie könnten Symptome wie Müdigkeit und Unaufmerksamkeit identifizieren, was zu einer höheren Sicherheit am Arbeitsplatz beitragen würde. Auch im Bereich der Rehabilitation sind neuartige Konzepte vorstellbar, zum Beispiel beim Eintrainieren von Aufgaben nach einem Schlaganfall.

Projektname:             Hirn-Computer-Schnittstelle zur Anpassung der technischen Interaktion an Emotionen
                                 (EmoAdapt)

                                 BMBF-Fördermaßnahme im Rahmen des Förderschwerpunktes „Sozial- und
                                 emotionssensitive Systeme für eine optimierte Mensch-Technik-Interaktion“ (InterEmotio)

Projektlaufzeit:          1. Mai 2015 - 30. April 2018

EmoAdapt

LIN-Ansprechpartner:
Dr. André Brechmann
Tel.: +49-391-6263-92161
E-Mail:

OVGU-Ansprechpartner:
Prof. Dr. Dr. Johannes Bernarding
Institut für Biometrie und Medizinische Informatik
Tel.: +49-391-67-13535
E-Mail:

Quelle: http://idw-online.de/de/news631857

Ein Proband interagiert in einer Virtual Reality mit einem Computer (Foto: OVGU).

Letzte Änderung: 11.12.2017 - Ansprechpartner: Webmaster