14 I SCHWERPUNKT EMOTIONEN
Letzteres gilt auch für kognitive Funktionen, die uns zudem erlauben,
flexibel auf Reize zu reagieren – allerdings benötigt diese flexible Re-
aktion eben häufig mehr Zeit. Genau hier liegt der evolutionäre Zweck
der Emotion im Vergleich zum Verstand. Steinhauser illustriert es
am Bild des Löwen, der plötzlich auftaucht: „Da haben Sie keine Zeit
nachzudenken, was Sie tun könnten – ihr Gehirn weiß aber, dass eine
sofortige Flucht- oder Kampfreaktion erforderlich ist.“ Auch heu-
te sind Emotionen in bestimmten Situationen sehr hilfreich, betont
Steinhauser: beispielsweise im Fahrzeug. „Nehmen wir an, Sie fahren
auf der Autobahn auf der linken Spur mit 200 km/h und plötzlich
zieht jemand links raus. Sie haben eine Angstreaktion, die erhöht ihre
Bremsbereitschaft und Sie reagieren schneller. Alle Sekundäraufgaben
SCHWERPUNKT EMOTIONEN I 15
werden zurückgestellt – Sie unterbrechen Ihre Unterhaltung, achten
nicht mehr auf das Radio. Sie konzentrieren sich auf die Primärauf-
gabe Autofahren und versuchen, in dieser Situation einfach nur zu
überleben.“
Deutlich wird: Verstand und Emotionen sind gleichermaßen wichtig
für den Menschen, sie stellen keinen Widerspruch dar – rationale, ko-
gnitive Reaktionen bestimmen ebenso unser Handeln wie scheinbar
irrationale, emotionale Reaktionen. Emotionen sind nicht isoliert zu
betrachten, sondern haben Einfluss auf unsere Kognition und unser
Verhalten – und damit auch auf unser Fahrverhalten.
Emotionen auf der Überholspur
Genau das ist der Ausgangspunkt für das vom Bundesforschungsmi-
nisterium geförderte Verbundprojekt „Grundlagen interaktions- und
emotionssensitiver Assistenzsysteme“ (INEMAS), das Steinhauser bis
2018 koordinierte. Von Seiten der KU waren außerdem Steinhausers
Doktoranden Klara Steinhauser und Franz Wurm beteiligt. Erforscht
wurde, wie sich der emotionale und der sozial interaktive Zustand ei-
nes Autofahrers erfassen lassen und wie diese Informationen einem
Fahrerassistenzsystem so zur Verfügung gestellt werden können, dass
dieses System angepasster auf den individuellen Zustand reagiert. Was
kompliziert klingt, basiert auf alltäglichen Phänomenen. Wer sich är-
gert, fährt gerne stärker auf. Wer mit den Kindern auf der Rückbank
redet, ist abgelenkter von der Straße. „Durch Videodaten vom Fah-
rer erfassen wir solche Zustände und versuchen zu analysieren, was
diese Bilder uns zum Beispiel über die Reaktionsbereitschaft sagen“,
erläutert Marco Steinhauser. Diese Informationen werden dann dem
Fahrerassistenzsystem so zur Verfügung gestellt, dass es beispielswei-
se in einer Bremssituation früher oder auf andere Art warnt. „Wenn
Sie sich zum Beispiel unterhalten, ist eine akustische Warnung nicht
optimal, dann ist eine taktile oder visuelle Warnung besser.“
Aufgabe der KU im Rahmen des Verbundprojektes war es, eine Me-
thode zur Klassifikation des sozialen und emotionalen Fahrerzustands
zu entwickeln und die Auswirkungen dieses Zustands auf Kognition
und Fahrleistung zu untersuchen. Getestet wurde im Fahrsimulator
aber auch in realen Fahrsituationen auf einer Teststrecke an der Uni-
versität der Bundeswehr in Neubiberg. Um emotionale Zustände zu
erfassen, mussten die Forscher bei den Versuchspersonen zunächst
Emotionen hervorrufen. Klassischerweise wird dafür standardisiertes
Reizmaterial genutzt – Fotos, die z. B. Wasserleichen, Spinnen oder
Babys zeigen. Von dieser Methode jedoch rückten die Eichstätter For-
scher bewusst ab: „Natürlich führt es zu einer emotionalen Reaktion,
wenn meine Versuchsperson am Straßenrand plötzlich das Bild einer
Leiche sieht. Aber es ist auch logisch, dass die Aufmerksamkeit der
Person auf das Bild gelenkt wird – das wiederum verfälscht die Unter-
suchung, inwiefern Aufmerksamkeit und Kognition durch Emotion
beeinträchtigt wird.“ Stattdessen nutzte das Team imaginative Verfah-
ren – eine Methode, die relativ wenig Ablenkung durch emotionale
Reize verspricht, da die Versuchspersonen in einen längerfristig sta-
bilen emotionalen Zustand kommen: „Die Versuchsperson sollte sich
vor der Fahrt in eine Situation hineinversetzen, in der sie emotional
reagiert hat – mit Freude oder Ärger. Während sie sich diese Situation
ausmalte, spielten wir die Emotion unterstützende Musik.“ Die Ver-
suchspersonen wurden dann aufgefordert, sich die Emotionen wieder
ins Gedächtnis zu rufen, sobald diese Musik im Experiment erklingt.
In ihren Versuchen fanden die Eichstätter Forscher so vielfältige Mu-
ster, wie sich Emotionen auf das individuelle Fahrverhalten auswir-
ken. Viele davon bestätigen die vorherigen Vermutungen: Wer z.B.
unter Ärger steht und in einer Kolonne fährt, der reagiert mit einem
aggressiveren Fahrverhalten, das heißt, er fährt stärker auf und wird
schneller.
Im Experiment beschrieben die Fahrer ihren emotionalen Zustand
selbst, außerdem wurde die Herzrate mittels EKG oder Pulsuhr er-
fasst und Blickbewegungen analysiert. Eine Frage, die die INEMAS-
Forscher stark beschäftigte, war aber, wie sich die Emotionen außer-
halb des experimentellen Settings allein per Videobild identifizieren
lassen. Die vergangenen drei Jahre Forschung hätten gezeigt, dass dies
zwar möglich ist, aber deutlich komplizierter als gedacht. „Emotio-
naler Ausdruck im Gesicht ist Kommunikationsverhalten – wenn
ich alleine im Auto sitze, dann kommuniziere ich aber mit nieman-
dem. Das heißt, viele reagieren zwar emotional, aber ihr emotiona-
ler Gesichtsausdruck, den wir mit der Kamera erfassen können, ist
stark limitiert“, beschreibt Steinhauser die Problematik. Neben den
optischen Daten des Gesichts wurden daher auch Fahrdaten wie die
Bremsreaktionszeit in den Algorithmus einbezogen. Die Projektpart-
ner von der Universität Münster, ein Team von Informatikern, ent-
wickelten mit diesen Informationen Algorithmen zur Mustererken-
nung, um das Videomaterial zur Klassifikation des Fahrerzustands
verwenden zu können.
Auf dieser Basis entwickelte das Eichstätter Team dann wiederum ein
sogenanntes Nutzermodell, um auf Basis des erfassten Fahrerzustands
Vorhersagen auf kognitive Parameter zu treffen und diese den Assis-
tenzsystemen zur Verfügung zu stellen. Denn für die Fahrsicherheit
ist nicht die Emotion der entscheidende Punkt, wie Steinhauser er-
läutert: „Der Algorithmus, der über die Bilder die Emotionen klassi-
fiziert, stellt fest, Sie sind gerade ärgerlich. Aber das Assistenzsystem
muss nicht wissen, ob Sie ärgerlich sind – es muss wissen, ob Sie des-
wegen abgelenkt sind, ob Ihre Reaktionsbereitschaft beeinträchtigt
ist.“ Aufgabe der Kognitionspsychologen war daher die Entwicklung
eines Modells, in dem auf Basis der Videodaten und verschiedener
Theorien der Aufmerksamkeit Rückschlüsse auf die Aufmerksamkeit
des Fahrers gezogen werden können.
Emotionen und das Lernen aus Fehlern
Wie eng Kognition und Emotion zusammenhängen, zeigt auch die
Forschung von Martin Maier zur Fehlerverarbeitung. In seinem Pro-
jekt lässt er Versuchspersonen am Computer Stimuli klassifizieren,
beispielsweise sollen sie anhand von Gesichtern das Geschlecht der je-
weils abgebildeten Person bestimmen. Werden die Versuchspersonen
unter Zeitdruck gesetzt, machen sie Fehler. Im Normalfall folgt dann
eine Verhaltensanpassung: Die Versuchsperson wird beim nächsten
Durchgang langsamer, um nicht erneut einen Fehler zu begehen.
„Mit solchen Fehlern gehen charakteristische Veränderungen in den
Gehirnströmen einher, die wir mit dem EEG ableiten können“, erklärt
Maier den Aufbau des Experiments. Zeitgleich mit einer fehlerhaf-
ten Antwort zeigt sich im EEG eine starke negative Auslenkung, ein
frühes unbewusstes Fehlersignal. Das eigentliche Fehlerbewusstsein,
sichtbar durch eine weitere Auslenkung im EEG, folgt dann erst etwa
200 bis 300 Millisekunden später. Maier untersuchte, wie das erste un-
bewusste Fehlersignal mit der anschließenden Verhaltensanpassung
zusammenhängt.
Dazu integrierte er Alexithymiker in seine Studie. Alexithymie be-
schreibt die Unfähigkeit, die eigenen Emotionen wahrzunehmen
und auszudrücken – diese Eigenschaft ist bei jedem Menschen unter-