forum forschung forum forschung 2019 | Page 14

14 I SCHWERPUNKT EMOTIONEN Letzteres gilt auch für kognitive Funktionen, die uns zudem erlauben, flexibel auf Reize zu reagieren – allerdings benötigt diese flexible Re- aktion eben häufig mehr Zeit. Genau hier liegt der evolutionäre Zweck der Emotion im Vergleich zum Verstand. Steinhauser illustriert es am Bild des Löwen, der plötzlich auftaucht: „Da haben Sie keine Zeit nachzudenken, was Sie tun könnten – ihr Gehirn weiß aber, dass eine sofortige Flucht- oder Kampfreaktion erforderlich ist.“ Auch heu- te sind Emotionen in bestimmten Situationen sehr hilfreich, betont Steinhauser: beispielsweise im Fahrzeug. „Nehmen wir an, Sie fahren auf der Autobahn auf der linken Spur mit 200 km/h und plötzlich zieht jemand links raus. Sie haben eine Angstreaktion, die erhöht ihre Bremsbereitschaft und Sie reagieren schneller. Alle Sekundäraufgaben SCHWERPUNKT EMOTIONEN I 15 werden zurückgestellt – Sie unterbrechen Ihre Unterhaltung, achten nicht mehr auf das Radio. Sie konzentrieren sich auf die Primärauf- gabe Autofahren und versuchen, in dieser Situation einfach nur zu überleben.“ Deutlich wird: Verstand und Emotionen sind gleichermaßen wichtig für den Menschen, sie stellen keinen Widerspruch dar – rationale, ko- gnitive Reaktionen bestimmen ebenso unser Handeln wie scheinbar irrationale, emotionale Reaktionen. Emotionen sind nicht isoliert zu betrachten, sondern haben Einfluss auf unsere Kognition und unser Verhalten – und damit auch auf unser Fahrverhalten. Emotionen auf der Überholspur Genau das ist der Ausgangspunkt für das vom Bundesforschungsmi- nisterium geförderte Verbundprojekt „Grundlagen interaktions- und emotionssensitiver Assistenzsysteme“ (INEMAS), das Steinhauser bis 2018 koordinierte. Von Seiten der KU waren außerdem Steinhausers Doktoranden Klara Steinhauser und Franz Wurm beteiligt. Erforscht wurde, wie sich der emotionale und der sozial interaktive Zustand ei- nes Autofahrers erfassen lassen und wie diese Informationen einem Fahrerassistenzsystem so zur Verfügung gestellt werden können, dass dieses System angepasster auf den individuellen Zustand reagiert. Was kompliziert klingt, basiert auf alltäglichen Phänomenen. Wer sich är- gert, fährt gerne stärker auf. Wer mit den Kindern auf der Rückbank redet, ist abgelenkter von der Straße. „Durch Videodaten vom Fah- rer erfassen wir solche Zustände und versuchen zu analysieren, was diese Bilder uns zum Beispiel über die Reaktionsbereitschaft sagen“, erläutert Marco Steinhauser. Diese Informationen werden dann dem Fahrerassistenzsystem so zur Verfügung gestellt, dass es beispielswei- se in einer Bremssituation früher oder auf andere Art warnt. „Wenn Sie sich zum Beispiel unterhalten, ist eine akustische Warnung nicht optimal, dann ist eine taktile oder visuelle Warnung besser.“ Aufgabe der KU im Rahmen des Verbundprojektes war es, eine Me- thode zur Klassifikation des sozialen und emotionalen Fahrerzustands zu entwickeln und die Auswirkungen dieses Zustands auf Kognition und Fahrleistung zu untersuchen. Getestet wurde im Fahrsimulator aber auch in realen Fahrsituationen auf einer Teststrecke an der Uni- versität der Bundeswehr in Neubiberg. Um emotionale Zustände zu erfassen, mussten die Forscher bei den Versuchspersonen zunächst Emotionen hervorrufen. Klassischerweise wird dafür standardisiertes Reizmaterial genutzt – Fotos, die z. B. Wasserleichen, Spinnen oder Babys zeigen. Von dieser Methode jedoch rückten die Eichstätter For- scher bewusst ab: „Natürlich führt es zu einer emotionalen Reaktion, wenn meine Versuchsperson am Straßenrand plötzlich das Bild einer Leiche sieht. Aber es ist auch logisch, dass die Aufmerksamkeit der Person auf das Bild gelenkt wird – das wiederum verfälscht die Unter- suchung, inwiefern Aufmerksamkeit und Kognition durch Emotion beeinträchtigt wird.“ Stattdessen nutzte das Team imaginative Verfah- ren – eine Methode, die relativ wenig Ablenkung durch emotionale Reize verspricht, da die Versuchspersonen in einen längerfristig sta- bilen emotionalen Zustand kommen: „Die Versuchsperson sollte sich vor der Fahrt in eine Situation hineinversetzen, in der sie emotional reagiert hat – mit Freude oder Ärger. Während sie sich diese Situation ausmalte, spielten wir die Emotion unterstützende Musik.“ Die Ver- suchspersonen wurden dann aufgefordert, sich die Emotionen wieder ins Gedächtnis zu rufen, sobald diese Musik im Experiment erklingt. In ihren Versuchen fanden die Eichstätter Forscher so vielfältige Mu- ster, wie sich Emotionen auf das individuelle Fahrverhalten auswir- ken. Viele davon bestätigen die vorherigen Vermutungen: Wer z.B. unter Ärger steht und in einer Kolonne fährt, der reagiert mit einem aggressiveren Fahrverhalten, das heißt, er fährt stärker auf und wird schneller. Im Experiment beschrieben die Fahrer ihren emotionalen Zustand selbst, außerdem wurde die Herzrate mittels EKG oder Pulsuhr er- fasst und Blickbewegungen analysiert. Eine Frage, die die INEMAS- Forscher stark beschäftigte, war aber, wie sich die Emotionen außer- halb des experimentellen Settings allein per Videobild identifizieren lassen. Die vergangenen drei Jahre Forschung hätten gezeigt, dass dies zwar möglich ist, aber deutlich komplizierter als gedacht. „Emotio- naler Ausdruck im Gesicht ist Kommunikationsverhalten – wenn ich alleine im Auto sitze, dann kommuniziere ich aber mit nieman- dem. Das heißt, viele reagieren zwar emotional, aber ihr emotiona- ler Gesichtsausdruck, den wir mit der Kamera erfassen können, ist stark limitiert“, beschreibt Steinhauser die Problematik. Neben den optischen Daten des Gesichts wurden daher auch Fahrdaten wie die Bremsreaktionszeit in den Algorithmus einbezogen. Die Projektpart- ner von der Universität Münster, ein Team von Informatikern, ent- wickelten mit diesen Informationen Algorithmen zur Mustererken- nung, um das Videomaterial zur Klassifikation des Fahrerzustands verwenden zu können. Auf dieser Basis entwickelte das Eichstätter Team dann wiederum ein sogenanntes Nutzermodell, um auf Basis des erfassten Fahrerzustands Vorhersagen auf kognitive Parameter zu treffen und diese den Assis- tenzsystemen zur Verfügung zu stellen. Denn für die Fahrsicherheit ist nicht die Emotion der entscheidende Punkt, wie Steinhauser er- läutert: „Der Algorithmus, der über die Bilder die Emotionen klassi- fiziert, stellt fest, Sie sind gerade ärgerlich. Aber das Assistenzsystem muss nicht wissen, ob Sie ärgerlich sind – es muss wissen, ob Sie des- wegen abgelenkt sind, ob Ihre Reaktionsbereitschaft beeinträchtigt ist.“ Aufgabe der Kognitionspsychologen war daher die Entwicklung eines Modells, in dem auf Basis der Videodaten und verschiedener Theorien der Aufmerksamkeit Rückschlüsse auf die Aufmerksamkeit des Fahrers gezogen werden können. Emotionen und das Lernen aus Fehlern Wie eng Kognition und Emotion zusammenhängen, zeigt auch die Forschung von Martin Maier zur Fehlerverarbeitung. In seinem Pro- jekt lässt er Versuchspersonen am Computer Stimuli klassifizieren, beispielsweise sollen sie anhand von Gesichtern das Geschlecht der je- weils abgebildeten Person bestimmen. Werden die Versuchspersonen unter Zeitdruck gesetzt, machen sie Fehler. Im Normalfall folgt dann eine Verhaltensanpassung: Die Versuchsperson wird beim nächsten Durchgang langsamer, um nicht erneut einen Fehler zu begehen. „Mit solchen Fehlern gehen charakteristische Veränderungen in den Gehirnströmen einher, die wir mit dem EEG ableiten können“, erklärt Maier den Aufbau des Experiments. Zeitgleich mit einer fehlerhaf- ten Antwort zeigt sich im EEG eine starke negative Auslenkung, ein frühes unbewusstes Fehlersignal. Das eigentliche Fehlerbewusstsein, sichtbar durch eine weitere Auslenkung im EEG, folgt dann erst etwa 200 bis 300 Millisekunden später. Maier untersuchte, wie das erste un- bewusste Fehlersignal mit der anschließenden Verhaltensanpassung zusammenhängt. Dazu integrierte er Alexithymiker in seine Studie. Alexithymie be- schreibt die Unfähigkeit, die eigenen Emotionen wahrzunehmen und auszudrücken – diese Eigenschaft ist bei jedem Menschen unter-