Die Forschungsgruppe Human-centered Artificial Intelligence: Multimodal Behavior Processing, geleitet von Prof. Dr. Hanna Drimalla, widmet sich der automatischen Analyse sozialer Interaktionssignale (z.B. Mimik, Blickverhalten, Stimme etc.) mittels maschinellem Lernen sowie Sprach- und Bildverarbeitung. Drei Aspekte stehen im Mittelpunkt unserer Forschung: die Erkennung von positivem und negativem Affekt, die Messung von Stress und die Analyse von sozialen Interaktionsmustern. Alle drei haben gemeinsam, dass sie multimodale und zeitabhängige Phänomene sind. Um diese Komplexität zu adressieren, sammeln wir innovative Trainingsdaten und entwickeln neuartige Analysemethoden. Unser Ziel ist eine Empathische Künstliche Intelligenz, die den mentalen Zustand der Nutzer*innen erkennt und sich an diesen anpasst.