Forschungsprojekt

KI als ‚virtuelle Bürger‘ in einer pluralen und dynamischen Gesellschaft

Beschreibung

KI-Systeme sind nicht nur technische Werkzeuge, sondern können als ‚virtuelle Bürger’ verstanden werden, die mit Handlungs- und Entscheidungsfreiheit ausgestattet sind. Während ihr Charakter als kognitive Black Box weithin diskutiert wird, gilt dies nicht für ihre moralische Unzugänglichkeit. Indem wir die neue Idee einer ‚algorithmischen Fairness‘ aufnehmen, soziologisch fundieren und interdisziplinär anwenden, adressieren wir die folgende Forschungsfrage:

Wie wird die komplexe, typischerweise mehrdeutige und widersprüchliche moralische Infrastruktur der Gesellschaften der späten Moderne von KI reflektiert und ggf. verändert?

Um diese Frage zu konzeptionieren, kombinieren wir das normative Denken der Soziologie der Kritik (engl. Sociology of Critique, SoC) bzw. der Ökonomie der Konventionen mit einem koaktiven Lernansatz von KI-Systemen. Die SoC geht generell davon aus, dass Individuen ihre alltäglichen Handlungen und Entscheidungen unter Bezugnahme auf konkurrierende moralische Rechtfertigungsordnungen begründen müssen. In dieser Perspektive stellen Fairness, Transparenz, Verantwortlichkeit und Vertrauen keine festen Eigenschaften von Systemen bzw. Akteuren dar, sondern müssen kontinuierlich ausgehandelt werden. Insbesondere müssen hierbei gleichzeitig gültige und widersprüchliche moralische Bezugssysteme miteinander vermittelt werden. Indem wir diesen Ansatz auf KI-Systeme als ‚virtuelle Bürger‘ übertragen, konfrontieren wir (1) Lernmaschinen mit widersprüchlichen moralischen Ordnungen und Begründungen. Wir fragen also danach, wie mehrdeutige und dynamische soziale Prozesse in und von lernenden Maschinen übersetzt und algorithmisch transformiert werden. Zu diesem Zweck gestalten und vergleichen wir (2) ‚Verhandlungsräume‘, in denen KI und Menschen auf der Grundlage pluraler Rechtfertigungsordnungen interagieren.

Zentrale Forschungs­fragen
  • Wie konfrontieren wir lernende Maschinen mit widersprüchlichen moralischen Ordnungen?

  • Wie schaffen wir Räume, in denen KI und Menschen auf der Grundlage einer Vielzahl von Rechtfertigungsordnungen interagieren, d.h. eine Form der "Interaktivität" (Rammert 2007), die auf nichts anderem basiert als der dynamischen Vielfalt, die für Gesellschaften der späten Moderne konstitutiv ist?
Forschungs­modell

​ ​​

Ausgewählte Publika­tionen
  • Ebner, Katharina; Mattes, Patrick (2019): Are You Responsible for Traffic Congestion? A Systematic Review of the Socio-Technical Perspective of Smart Mobility Services. In Proceedings of 52nd Hawaii International Conference on System Science (HICSS-52), Maui, Hawaii.
  • Kappler, Karolin; Vormbusch, Uwe (2018): Value-Veillance: Opening the Black Box of Surveillance in Emergency Management. In Kees Boersma; Chiara Fonio (Hrsg.): Big Data, Surveillance and Crisis Management, London/New York: Routledge, p. 179-197.
  • Teso, Stefano; Kersting, Kristian (2019): Explanatory Interactive Machine Learning. In Proceedings of the 2nd AAAI/ACM Conference on AI, Ethics, and Society (AIES).
  • Zehlike, Meike; Bonchi, Francesco; Castillo, Carlos; Hajian, Sara; Megahed, Mohamed; Baeza-Yates, Ricardo (2017): FA*IR: A Fair Top-k Ranking Algorithm. In Proceedings of the 2017 ACM Conference on Information and Knowledge Management CIKM’17, Singapore.
Team

Prof. Dr. Stefan Smolnik
Dr. Karolin Eva Kappler
Dr. Katharina Ebner
Prof. Dr. Uwe Vormbusch
Prof. Dr. Kristian Kersting
Prof. Dr. Carlos Castillo

Lehrstuhl Smolnik | 04.11.2019