zum Hauptinhalt wechseln zum Hauptmenü wechseln zum Fußbereich wechseln Universität Bielefeld Play Search

Der Berlin Emotion Recognition Test (BERT)

Berlin Emotion Recognition Test

Imitation and recognition of facial emotions in autism: a computer vision approach. Drimalla H, Baskow I, Behnia B, Roepke S, Dziobek I (2021) Molecular autism 12(1): 27.

Der Berlin Emotion Recognition Test (BERT) ist eine computergestützte Aufgabe zur sensitiven Erfassung der Emotionserkennung. Der BERT besteht aus insgesamt 48 Fotos von Gesichtsausdrücken professioneller Schauspieler*innen, die eine der sechs Grundemotionen zeigen ([1]; zur Stimulusproduktion siehe [2]). Das Gesicht ist vor einem dunkelgrauen Hintergrund zentriert. Es gibt acht Bilder pro Emotion, und jede wird von vier verschiedenen weiblichen Schauspielerinnen und vier verschiedenen männlichen Schauspielern ausgedrückt. Unter jedem Bild werden zwei emotionale Wörter präsentiert, und der*die Teilnehmer*in wird gefragt, wie sich die Person fühlt. Nur eine der beiden möglichen Optionen beschreibt die ausgedrückte Emotion korrekt. Der Emotionserkennungswert ist der Prozentsatz der richtigen Antworten. Die Position der richtigen Antwort sowie die Reihenfolge des Bildes sind randomisiert.

Entwicklung

Um eine sensitive Aufgabe zu entwickeln, wurden die Bilder aus Videoclips extrahiert, in denen professionelle Schauspieler*innen die Zielemotionen ausdrückten. Die Schauspieler*innen waren mit emotionalen Skripten (z. B. stellen Sie sich vor, Sie erhalten ein unerwartetes Geschenk) angewiesen worden, die Gesichtsausdrücke auszuführen, beginnend mit einem neutralen Ausdruck. Dies führte zu einem eher naturalistischen Material. Aus jedem Videoclip wurden Frames mit drei verschiedenen Intensitäten extrahiert. Diese Bilder von mimischen Emotionsausdrücken bildeten den Item-Pool für den BERT. Dieser Pool wurde in einer Vorstudie bei einem Tag der offenen Tür in Berlin, Deutschland, wo große wissenschaftliche Einrichtungen ihre Türen für die Öffentlichkeit öffnen, auf die empfindlichsten Items reduziert. In dieser Vorstudie mit einer Zufallsstichprobe wurden 46 Teilnehmer*innen gebeten, die Emotion jedes der Items zu erkennen. Jedes Bild wurde mit den sechs Grundemotionen als mögliche Antworten präsentiert. Basierend auf ihren Antworten wählten wir für jeden Videoclip das Bild aus, das am besten zwischen Teilnehmer*innen mit niedriger und hoher Punktzahl diskriminierte. Zusätzlich identifizierten wir für jedes Item den schwierigsten Distraktor aus den fünf falschen Emotionsbezeichnungen. In einer anschließenden Online-Studie [3] mit 436 Teilnehmer*innen wurden die ausgewählten Bilder und Distraktoren getestet und in Bezug auf Reliabilität und Trennschärfe weiter verbessert, indem die besten acht Items pro Emotion und schwierigstem Distraktor ausgewählt wurden.

Literaturhinweise

[1] Ekman P, Friesen WV. Constants across cultures in the face and emotion. Journal of Personality and Social Psychology 1971; 17(2): 124–9 [https://doi.org/10.1037/h0030377]

[2] Kliemann D, Rosenblau G, Bölte S, Heekeren HR, Dziobek I. Face puzzle—two new video-based tasks for measuring explicit and implicit aspects of facial emotion recognition. Front. Psychol. 2013; 4: 376.

[3] Drimalla H, Kirst S, Dziobek I. Insights about Emotion Recognition by BERT and ERNIE (two new psychological tests) Manuscript in preparation.


Zum Seitenanfang