Veranstalter*innen: Prof. Dr. Claudia de Witt, Dr. Christian Leineweber, Vanessa Meiners
Eine Hermeneutik, die sich als digital begreifen und profilieren möchte, verweist ganz wesentlich auf die Methode, sprachlich kommunizierten und maschinell berechneten Sinn zu verstehen. Mensch und Maschine treten so in ein Netzwerk von kommunizierten und kommunizierbaren Verständnissen. Dies setzt nicht mehr nur ein Verstehen der Welt, sondern darüber hinaus auch verstehende Algorithmen und ein Verstehen der Algorithmen voraus. Unser Panel widmet sich diesem ›Doppelspiel‹ mit dem Ziel, die Beziehung zwischen menschlichem und maschinellem Verstehen in unterschiedlichen Facetten zu (de-) konstruieren.
Session 1:
Mi 29. 6. 2022 | 13:00 - 15:00 Uhr | Gebäude 2, Raum 4+5 |
Gibt es bleibende Unterschiede zwischen Informationsverarbeitung und Sinnverstehen?
Prof. Dr. Matthias Kettner (Universität Witten/Herdecke)
Wie können wir das Verhältnis von Informationsverarbeitung und Sinnverstehen verstehen, wie theoretisch aufschlüsseln? Ich wähle als Bezugsproblem die Funktion(en) von Welterschließung und erprobe folgende Kontrasthypothese: während die primäre Funktion von Welterschließung durch Maschinenlesbarkeit die algorithmisierbare Informationsverarbeitung ist, ist die primäre Funktion von Welterschließung durch Sinnverstehen diekommunizierbare Situationsorientierung. Wenn es im Rahmen steil naturalistischer Positionen von Computer- und Kognitionswissenschaft so erscheint, als sei menschliches Sinnverstehen letztlich „auch nur eine Form von Informationsverarbeitung“, erscheint dies von der Warte einer Hermeneutik-Theorie, die Sinnverstehen als Zugänglichwerden fremden mentalen Lebens unter Lebewesen mit mentalem Eigenleben und gemeinsamer Sprache (d.h. unter Personen, nicht Maschinen) begreift, absurd reduktionistisch. Beides ist zu einfach. Lässt sich diskurspragmatisch differenzierter über Unterschiede von Information und Sinn nachdenken?
Matthias Kettner ist Professor für Philosophie und Diplompsychologe. Er hat bei bei Karl-Otto Apel und Jürgen Habermas mit einer Schrift zu Hegel in Frankfurt promoviert und sich mit einer Schrift über Perspektiven der Diskursethik habilitiert. Seit 2002 hat er den Lehrstuhl für Praktische Philosophie an der Universität Witten/Herdecke inne und seit 2021 ist er Seniorprofessor in der Fakultät für Wirtschaft und Gesellschaft.
Analog/digital – (wie) spricht der Zettelkasten Niklas Luhmanns?
Dipl.-Soz. Johannes Schmidt (Universität Bielefeld)
Niklas Luhmann (1927–1998) war einer der letzten Großtheoretiker der Soziologie. Er hat über 30 Jahre lang kontinuierlich an einer universalen Theorie der modernen Gesellschaft gearbeitet. Letztlich kann man nahezu alle Publikationen Luhmanns – und das waren bereits zu Lebzeiten mehr als 50 Bücher und 500 Aufsätze – als Beiträge zu diesem Werk verstehen. Die Grundlage seiner wissenschaftlichen Arbeit war eine schließlich ca. 90.000 Zettel umfassende Notizensammlung, die Luhmann zwischen 1952 und 1997 anlegte und in der er seine Lektüreergebnisse und Theoriefortschritte dokumentierte. Diese Sammlung war aber nicht nur eine Gedächtnisstütze über Gelesenes, sondern zugleich ein Denkapparat und eine Publikationsmaschine. Der Zettelkasten wird nun im Rahmen eines Nachlasseditionsprojekts transkribiert und digitalisiert (niklas-luhmann-archiv.de).
Luhmann bezeichnete die heterarchisch organisierte Sammlung als ein „kybernetisches System“; seine Selbstauskunft war, dass nicht er, sondern der Zettelkasten seine vielen Texte schreiben würde. Dieses (Under)Statement war für den analogen Kasten wenig überzeugend: der Kasten benötigte, um als Textgenerator zu funktionieren, ganz offenkundig einen Operateur, der eine Einstiegsfrage formulierte, die Zettel heraussuchte und die darauf zu findenden Argumente schließlich in eine sinnvolle und lineare, textkompatible Ordnung bringen musste. Ändert sich etwas an dieser Abhängigkeit von einem sinnverstehenden Außenhalt, wenn der Kasten nun digitalisiert wird? Führt die Edition also über eine (nur) digitale Rekonstruktion des analogen Vorbilds hinaus, indem sie die Sammlung auf eine andere Weise mit sich selbst ins Gespräch bringt? Wird der Kasten also erst jetzt zu einem kybernetischen System, das neue Formen des Sinnverstehens ermöglicht?
Seit 2015 ist Dipl.-Soz. Johannes Schmidt wissenschaftlicher Koordinator des Akademieprojekts „Niklas Luhmann – Theorie als Passion. Wissenschaftliche Erschließung und Edition des Nachlasses“ (https://niklas-luhmann-archiv.de) an der Universität Bielefeld.
Der Rückschlag der Apparate auf das Bewusstsein: Vilém Flusser, Don Ihde und eine erweiterte Hermeneutik
Dr. Daniel Irrgang (Weizenbaum Institut/Universität der Künste, Berlin)
Flusser stand mit seinen Thesen zu den Funktionen von Apparaten nicht nur neueren medientheoretischen Positionen (u.a. Galloway, Morozov) nahe, sondern auch den Science Studies, die in den letzten rund 30 Jahren die Rolle von Instrumenten und Materialitäten für Verstehen und Erkenntnis von einer funktionalistischen Peripherie ins Zentrum der Debatten verschoben haben. In diesem Vortrag soll Flussers Apparat-Begriff mit Theorien aus den Science Studies aufgeschlossen werden, insbesondere mit den postphänomenologischen Schriften Don Ihdes. In seinem instrumental realism geht dieser davon aus, dass (wissenschaftliche) Erkenntnis in einem doppelten Sinne verkörpert ist: einerseits durch den Körper des Instruments, welches das epistemische Objekt phänomenotechnisch (Rheinberger/Bachelard) ermöglicht, andererseits durch den Körper der/des Forschenden selbst, der räumlich/sozial/kulturell verortet ist. Beide „Körper“ bestimmen also maßgeblich die Darstellung und Interpretation gesammelter Daten. Um diese doppelte Körperlichkeit als Bedingung von Verstehen anzuerkennen und kritisch diskutieren zu können, schlägt Ihde eine expanded hermeneutics vor. Eine Hermeneutik, die einerseits von Sprache und Text auf Instrumente und ihre Darstellungen erweitert wird und die andererseits, angereichert mit phänomenologischen Perspektiven, der Körperlichkeit des Verstehens Rechnung trägt. Um es mit Ihde zu formulieren: „It is at this very point, in the analogization of human embodiment with artifactual embodiment, that an expanded hermeneutics is called for.“
Dr. Daniel Irrgangist Medienwissenschaftler und stellvertretender Leiter der Forschungsgruppe „Ungleichheit und digitale Souveränität“ am Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin, die der Universität der Künste (UdK) Berlin zugeordnet ist. Er hat über Diagrammatik und Expanded-Mind-Theorien promoviert und war zwischen 2016 und 2019 wissenschaftlicher Mitarbeiter und Assistent des Rektors an der Staatlichen Hochschule für Gestaltung (HfG) Karlsruhe und zwischen 2013 und 2016 wissenschaftlicher Leiter des Vilém Flusser Archivs an der UdK Berlin. Daniel Irrgang ist Affiliated Researcher am Center Art as Forum an der Universität Kopenhagen (Marie Skłodowska-Curie Fellowship).
Session 2:
Do 30. 6. 2022 | 10:15 - 12:15 Uhr | Gebäude 2, Raum 1–3 |
Modelle erklären, Modelle verstehen
Prof. Dr. Andreas Kaminski (RWTH Aachen/Universität Stuttgart)
Avancierte Formen des maschinellen Lernens führen zu Modellen, die weitgehend opak sind. Als Reaktion darauf ist die Forschungsrichtung zur Erklärbarkeit von KI-Modellen entstanden (Explainable AI). Es ist jedoch bei weitem nicht klar, ob erklärbare KI auch zu transparenten Modellen führt. Der Vortrag wird dieser Frage nachgehen, indem er den Begriff der Verstehbarkeit von Modellen ihrer Erklärbarkeit gegenüberstellt. Die These lautet: Selbst wenn wir einzelne Modellentscheidungen erklären können, heißt es nicht, dass wir die Modelle auch verstehen.
Dr. habil. Andreas Kaminski ist Gastprofessor für Technik- und Wissenschaftsphilosophie an der RWTH Aachen und Leiter der Abteilung für die Philosophie der computerintensiven Wissenschaften am Bundeshöchstleistungsrechenzentrum der Universität Stuttgart. In seiner Forschung beschäftigt er sich derzeit vor allem mit Fragen der Opazität und Reproduzierbarkeit von Computermodellen sowie mit Vertrauen in Informationen.
Digitale Mimesis
Prof. Dr. Jan Söffner (Zeppelin Universität Friedrichshafen)
Das mimetische Vermögen ist, wie Platon, Giambattista Vico, Walter Benjamin und Michael Taussig je verschieden beschreiben, nicht nur auf Darstellung ausgerichtet, sondern auch auf Anverwandlung: Sie schafft nicht nur mimetische Objekte, sondern eröffnet auch einen Moment der Teilhabe. Auf Grundlage dieser Prämisse entwickelt der Vortrag ein Schema des mimetischen Feldes, das die Bestimmung unterschiedlicher Formen der Mimesis sowohl von ihrer Konstruktion als auch von ihrer Hermeneutik ermöglicht. Dieses Schema wird in einem zweiten Schritt auf die Interaktion des Menschen mit digitaler Technologie angewendet, d. h. auf Schnittstellen, hinter denen Algorithmen ihrerseits „mimetische“ Prozesse vollziehen.
Prof. Dr. Jan Söffner ist Romanist und Kulturtheoretiker. Er bekleidet den Lehrstuhl für Kulturtheorie und Kulturanalyse an der Zeppelin Universität Friedrichshafen. Nach einem Studium der Germanistik und Italianistik in Köln waren seine Stationen das dortige Romanische Seminar, das Zentrum für Literatur- und Kulturforschung in Berlin, das Internationale Kolleg Morphomata in Köln, das Romanische Seminar der Universität Tübingen und die Programmleitung beim Wissenschaftsverlag Wilhelm Fink. Zu seinen Forschungsschwerpunkten gehören Literaturtheorie, Metaphern und Mimesis, Mythologie und Enaktivismus.
Session 3:
Do 30. 6. 2022 | 15:45 - 17:45 Uhr | Gebäude 3, Raum F009 |
Workshop: Die Bibliothek von Babel – Algorithmen der Textgenerierung
Prof. Dr. Georg Trogemann (Kunsthochschule für Medien Köln)
„Die Bibliothek von Babel“ ist eine Erzählung des argentinischen Schriftstellers Jorge Luis Borges aus dem Jahr 1941. Die endlose Bibliothek, ein Universum von sechseckigen Galerien, enthält alle kombinatorisch möglichen Bücher mit 410 Seiten. Borges beschreibt, wie die Bibliothekare diese Bücherwelt erforschen und versuchen, Sinn in den Büchern zu finden. Auch nur einzelne, zusammenhängende Sätze in den Texten zu entdecken, bedeutet bereits ein großes Glück. Diesem Universum gedruckter Bücher wird im Workshop die Welt der algorithmisch erzeugten und analysierten Texte gegenübergestellt. Was verändert sich, wenn Bibliotheken nicht nur von Menschen, sondern auch von Algorithmen – die selbst wieder nur Text und damit immer schon Teil der Bibliothek von Babel sind – gelesen, durchsucht, interpretiert und auch geschrieben werden? Anhand konkreter Programmbeispiele wird kursorisch das neue chiastische Wechselspiel von Texten und Quelltexten (Operanden und Operatoren) gezeigt. Fragen zu Autorschaft, Bias, Textverstehen u.v.a. stellen sich durch die KI-Algorithmen neu. Ihrer Beantwortung kommt man nur näher, wenn man die Algorithmen hinterfragt
Georg Trogemann ist seit 1994 Professor für Experimentelle Informatik an der Kunsthochschule für Medien Köln. Neben einer Gesellenprüfung als Schreiner hat er ein Studium der Informatik und Mathematik an der Universität Erlangen-Nürnberg absolviert. 1990 hat er zu massiv parallelen Algorithmen promoviert. Von 1997–1999 und 2004–2006 war er Prorektor für Forschung und Infrastruktur der Kunsthochschule für Medien Köln. Seine derzeitigen Interessen umfassen experimentelle Algorithmik, Künstliche Intelligenz und Poetik der Technik.
Session 4:
Fr 1. 7. 2022 | 10:15 - 12:15 Uhr | Gebäude 2, Raum 1–3 |
Verstehen – Interpretieren – Errechnen: Zum Wandel von Interpretationspraxen durch KI-gestützte Interpretation
Fabio Lieder (Universität der Bundeswehr München), Prof. Dr. Burkhard Schäffer (Universität der Bundeswehr München)
Die Dokumentarische Methode der Interpretation (DM) unterscheidet zwischen „Verstehen“ und „Interpretieren“: Verstehen können sich nur Angehörige eines Milieus oder ähnlicher kollektiver Gebilde untereinander. Fremdheit hingegen lässt sich nur durch „Interpretation“ überwinden. Vor diesem begrifflichen Hintergrund wird untersucht, wie es sich bei „Interpretationen“, die von einer Künstlichen Intelligenz (KI) generiert werden, mit dieser Fremdheitsrelation verhält: Ist es ein Unterschied, ob ein Mensch oder eine künstliche Intelligenz (KI) eine Interpretation vollzieht? Unter dem Horizont der Begriffe „verstehen“, „interpretieren“ und „errechnen“ wird erörtert, welche hybriden Gebilde sich aus dem interpretativen Zusammenhandeln von Mensch und KI ergeben. Mittels Natural Language Processing (NLP) ermitteln wir, inwieweit „Interpretationen“ maschinell erzeugt werden können und ob dies bei der Suche nach neuen überraschenden Sichtweisen unterstützen kann. Dazu demonstrieren wir ein vortrainiertes Sprachmodell, dem die Dokumentarische Methode mittels sog. „Prompt Engineering“ und beigebracht wurde.
Fabio Lieder, M.A. ist wissenschaftlicher Mitarbeiter an der Professur für Erwachsenenbildung/Weiterbildung an der Fakultät für Humanwissenschaften der Universität der Bundeswehr München. Seine Arbeitsschwerpunkte: Lehren und Lernen, Erwachsenenbildung, Technikphilosophie, Lehr-Lerninteraktion zwischen Menschen und Technik, erkenntnistheoretische und didaktische Implikationen Künstlicher Intelligenz, Erforschung und (Weiter-)Entwicklung softwaregestützter qualitativ-rekonstruktiver Datenanalyse.
Prof. Dr. Burkhard Schäffer leitet den Lehrstuhl für Erwachsenenbildung/Weiterbildung an der Fakultät für Humanwissenschaften der Universität der Bundeswehr München. Seine Arbeitsschwerpunkte: Methoden, Methodologien und Softwareentwicklung (DokuMet QDA) im Bereich qualitativer Erwachsenenbildungsforschung. Aktuelle Forschungsprojekte: andragogische Perspektiven auf die Corona Pandemie und Implementierung künstlicher Intelligenz in qualitative Forschung.
‚You never know‘. Überlegungen zum Umgang mit Algorithmen in erziehungswissenschaftlicher Digitalisierungsforschung
Prof. Dr. Sandra Hofhues (FU Hagen)
Unter Bedingungen von Mediatisierung und Digitalisierung scheint die Befassung mit Daten, Algorithmen und Strukturen digitaler Medien innerhalb von Erziehungswissenschaft dringlicher denn je. Dabei ist noch genauer auszuloten, wie sich eine erziehungswissenschaftliche Digitalisierungsforschung im Anschluss an die Tradition erziehungswissenschaftlicher Medienforschung in Bezug auf Phänomene, Gegenstände und (technische) Entwicklungen positionieren kann und sollte. Im Vortrag wird daher unter der Prämisse eines ‚You never know’ zuerst problematisiert, worin die besonderen Herausforderungen eines Umgangs mit Algorithmen in unser aller Alltag bestehen, ehe ein forschender Blick auf sie geworfen wird. Am Ende dient ein aktuelles Forschungsprojekt als Anschauungsbeispiel, wie sich erziehungswissenschaftliche Digitalisierungsforschung künftig verstehen könnte. An diesem Beispiel wird abschließend diskutiert, welche Leerstellen auszufüllen sind, um Algorithmen (besser) zu verstehen und in pädagogischer Praxis künftig auf die so aufscheinenden, komplexen Herausforderungen einzugehen.
Dr. Sandra Hofhues ist seit Oktober 2020 Universitätsprofessorin (W3) für Mediendidaktik im Institut für Bildungswissenschaft und Medienforschung der FernUniversität in Hagen. Zuvor war sie u.a. als Juniorprofessorin für Mediendidaktik/Medienpädagogik im Department Erziehungs- und Sozialwissenschaften der Humanwissenschaftlichen Fakultät der Universität zu Köln tätig. Ihre Schwerpunkte in Forschung und Lehre liegen im Kontext von Mediendidaktik unter Bedingungen von Digitalisierung und Digitalität sowie dokumentarischer Medien- und Organisationsforschung.
Affective Computing and Emotional AI als digitale Kulturtechniken der Emotionalisierung und reflexiven Distanzierung
Tanja Klankert (HU Berlin)
Der Einsatz von Emotional AI wird derzeit kritisch diskutiert. Neben Risiken, die auch biometrische Überwachungssysteme und ADM-Systeme betreffen, ist umstritten, ob sich Emotionen technisch erfassen und repräsentieren lassen. Ich möchte in meinem Vortrag auf Aspekte eingehen, die in der Diskussion bisher wenig Beachtung gefunden haben. Anhand von Methoden der Emotionserkennung, z.B. in der maschinellen Sprachverarbeitung, werde ich argumentieren, dass diese auf einem „erlebnisästhetischen Modell“ (Thomas Anz) emotionaler Kommunikation beruhen, das sich im 18. Jahrhundert in der Abkehr von der Rhetorik herausgebildet hat. Das Modell geht davon aus, dass Emotionen ihre Wirksamkeit dort optimal entfalten, wo sie authentisch durchlebt werden. Ausgeschlossen wird damit die Möglichkeit von reflexiver Distanznahme, von Bedeutungsverschiebungen wie auch des Nicht-Gelingens von Kommunikation. Dabei beruhen die Techniken auf widersprüchlichen Voraussetzungen und auf hegemonialen Asymmetrien. Es fragt sich, ob durch ihren Einsatz der Möglichkeitsraum zwischen Erleben und reflexiver Distanznahme und damit auch der Spielraum des Verhaltens (Bernhard Waldenfels) vereindeutigt und normiert wird.
Tanja Klankert ist Doktorandin an der Humboldt Universität zu Berlin am Lehr- und Forschungsbereich „Kulturtheorie und Kulturwissenschaftliche Ästhetik“ (Prof. Dr. Iris Därmann). Sie studierte Philosophie und Germanistik sowie Computerlinguistik und Informatik an den Universitäten Heidelberg und Stuttgart und absolviert ein Lehrdiplom für Philosophie und Informatik an der PHBern.