Wie können Menschen die Entscheidungen von Maschinen verstehen? Was geben die algorithmischen Ansätze her? Wie lässt sich künstliche Intelligenz (KI) begreifbar machen?
Technische Erklärungen erfordern oft ein Vorwissen über die Funktionsweise von KI und sind daher schwer nachvollziehbar. Im Forschungsbereich "Erklärbarkeit konstruieren" des Sonderforschungsbereichs/Transregio beschäftigen sich Wissenschaftler damit, Wege zu finden, um Benutzer aktiv in den Erklärungsprozess einzubeziehen.
Das interdisziplinäre Forschungsteam untersucht dabei die Prinzipien, Mechanismen und sozialen Praktiken des Erklärens und wie sie beim Design von KI-Systemen berücksichtigt werden können. Das Projektziel besteht darin, Erklärungsprozesse verständlich zu gestalten und assistierende Systeme zu entwickeln, die leicht nachvollziehbar sind.
Insgesamt sind 22 Projektleiter in Zusammenarbeit mit etwa 40 wissenschaftlichen Mitarbeitern aus den Bereichen Linguistik, Psychologie, Medienwissenschaft, Soziologie, Wirtschaftswissenschaft und Informatik an den Universitäten Bielefeld und Paderborn an der Erforschung der gemeinsamen Erarbeitung von Erklärungen beteiligt.