Menü Symbol
Suche einblenden

Tausend Plattformen: Plattformforschung nach dem Digital Services Act

Veranstalter: Jun.-Prof.‘in Dr. Jennifer Eickelmann, Dr. Thorben Mämecke

Campus-Standort Berlin, 07.-08.11. 2024; Neues Kranzler Eck, Kurfürstendamm 21.


„Panopticon“, „Plateau“‚ „Plattform“… bedeutungsgeladene Begriffsfiguren sind in der kritischen Medienforschung so allgegenwärtig, wie die ständige Wiederkehr der immer gleichen Phänomene auf die sie bezogen werden. Das bloße Perpetuieren eben solcher Begriffsfiguren läuft jedoch nicht nur Gefahr Gemeinplätze zu produzieren, sondern verkennt auch die Dynamiken der zugrundeliegenden Phänomenbereiche. Dies zumindest dann, wenn diese nicht stetig angesichts ihrer sozialen und politischen Einbettungen samt entsprechender Transformationen neu befragt und mit empirischen Wissen überprüft werden.

So hat der metaphorische Begriff der Plattform, wie er von Tim O’Reilly zu Beginn der 2000er Jahre geprägt wurde, der Öffentlichkeitswirksamkeit von Social Media Unternehmen in die Hände gespielt. Dies nicht zuletzt deswegen, weil er suggeriert, es handele sich um neutrale, flache, an sich eigenschaftslose, egalitäre wie offene Kommunikationsumgebungen. Darüber hinaus kaschiert er ökonomisch oder politisch motivierte Einflussnahmen auf das Kommunikationsgeschehen. Zahlreiche wissenschaftliche sowie zivilgesellschaftliche Perspektivierungen und Forschungsprojekte hatten entsprechend seitdem auf den ideologischen Charakter ebendieser Metaphorik hingewiesen und Plattformen entsprechend in vielfältiger Art und Weise problematisiert.

Mit dem Digital Services Act sind im Februar dieses Jahres nun nicht nur die destruktiven Potenziale ihrer gesellschaftspolitischen Relevanz erstmals umfänglich juridisch anerkannt worden, sondern Plattformen sind nun auch erstmals dazu verpflichtet sich der wissenschaftlichen Forschung zu öffnen.

Wir möchten dies zum Anlass nehmen, uns den Plattformen noch einmal aus den sich nun eröffnenden neuen Perspektiven zuzuwenden. Dazu nehmen wir aktuelle Transformationsdynamiken mit Blick auf Begriffe, methodische Perspektiven der Plattformforschung sowie auch konkrete Phänomenbereiche im Feld der Regulierung, sozialen Praxis und Politisierung von Plattformen in den Fokus der fünften Jahrestagung des FSP digitale_kultur.

  • Weitere Informationen:

    Um sich zur Tagung anzumelden, schreiben Sie bitte eine Nachricht mit Namen, Vornamen (und ggf. Affiliation) an d-k.
    Die Registrierung erfolgt am ersten Tagungstag zwischen 11:00 Uhr und 12:00 Uhr in den Tagungsräumen.

    Tagungswebseite

Programm

  • Do 7. 11. 2024 12:00 - 12:15 Uhr  
  • Chair: Dr. Maximilian Waldmann (FernUniversität in Hagen) & Dr. Christian Leineweber (FernUniversität in Hagen)

    Begriffe ermöglichen Zugänge zu Phänomenen, sind performativ aber ebenso an der Konstitution von Phänomenen beteiligt. Dabei schwingen in spezifischen ökonomischen, sozialen und politischen Kontext immer auch spezifische Begriffsimplikationen mit. Das Panel zielt darauf ab, aktuelle Begriffe wie z.B. ‚Sicherheit‘, ‚Vertrauen‘ und ‚Transparenz‘. im Plattformkontext vertiefend zu diskutieren und populäre Begriffe der Plattformforschung einer kritischen Relektüre unterziehen.

    Maximilian Waldmann ist Postdoc im Lehrgebiet Bildung und Differenz an der FernUniversität in Hagen. Zu seinen Forschungsschwerpunkten zählen u.a. Macht-, Herrschafts- und Ungleichheitsverhältnisse in der postdigitalen Kultur aus medienpädagogischen Perspektiven.

    Dr. Christian Leineweber (OvGU Magedburg) arbeitet zu medienpädagogischer Bildungstheorie, zur Quantifizierung in pädagogischen Handlungsfeldern sowie zu bildungswissenschaftlicher Medienforschung und den Themen Bildung und Zeit.

    Do 7. 11. 2024 12:15 - 13:45 Uhr  
    Eine kurze politische Ökonomie des plattformbasierten Internets
    Strukturierung – Regulierung – Kommodifizierung

    Prof. Dr. Ulrich Dolata (Universität Stuttgart)

    Das heutige Internet wird getragen von zahllosen kommerziell betriebenen Plattformen sehr unterschiedlicher Art: von Such-, Networking-, Messaging-, Medien-, Handels-, Vermittlungs-, Crowdsourcing- oder Crowdfunding-Plattformen, deren kleinster gemeinsamer Nenner ist, dass sie sich als digitale, datenbasierte und algorithmisch strukturierende soziotechnische Infrastrukturen charakterisieren lassen. Mein Vortrag knüpft in zweierlei Hinsicht daran an. Zum einen arbeitet er die übergreifende Strukturierung oder Architektur von Internetplattformen heraus, die sich aus (1) Unternehmen als organisierenden Kernen und (2) den von ihnen betriebenen Plattformen als mehr oder minder weitläufig ausgelegten sozialen Handlungsräumen fassen lässt, die sich in privatem Besitz befinden. Zum anderen geht der Vortrag der Frage nach, wie Plattformen durch deren Betreiber reguliert und kontrolliert werden. Im Zentrum stehen dabei zwei wesentliche Regelungsbereiche: zum einen die privatwirtschaftliche Organisierung und Regulierung von Märkten (wie z.B. des Amazon Marketplace), auf denen die Plattformbetreiber selbst die grundlegenden Marktprozesse koordinieren und die Wettbewerbsbedingungen festlegen, und zum anderen die technisch vermittelte Vorstrukturierung und Kuratierung sozialer Verhältnisse und sozialen Verhaltens, durch die insbesondere die führenden Social-Media Plattformen zum Teil sehr weitreichende soziale Ordnungs- und Regulierungsfunktionen übernehmen und die institutionellen Grundlagen für das schaffen, was ich als privatwirtschaftlich verfasste Gesellschaftlichkeit im Web bezeichne.

    Ulrich Dolata, Dr. rer. pol. habil., seit 2009 Professor für Organisations- und Innovationssoziologie am Institut für Sozialwissenschaften der Universität Stuttgart. Zuvor unter anderem Research Affiliate und Senior Scientist am Max-Planck-Institut für Gesellschaftsforschung in Köln sowie Wissenschaftler am artec-Forschungszentrum Nachhaltigkeit der Universität Bremen und am Hamburger Institut für Sozialforschung. Arbeitsschwerpunkte: Technik- und Innovationsforschung, organisationaler und institutioneller Wandel, politische Ökonomie des Internets.

         
    Risikopolitik in der Regulierung sozialer Medien

    Rachel Griffin (Sciences Po Paris)

    Viele der wichtigsten sozialen Probleme, die der DSA ins Visier nimmt – z.B. Desinformation, digitale Gewalt, Diskriminierung und andere Menschenrechtsfragen – werden vor allem durch die Absätze 34-35 reguliert. Diese Vorschriften etablieren Risikobewertungs- und -minderungspflichten für die gröβten Plattformen (‚VLOPs‘). Politiker*innen und zivilgesellschaftliche Organisationen haben groβe Hoffnungen in dieses System investiert. Sie sehen darin ein Mittel, Rechenschaft zu stärken und die Governance machtvoller Plattformunternehmen mit öffentlichen Interessen – und nicht nur Profiten – in Einklang zu bringen.

    Ausgangspunkt für diesen Artikel ist ein Verständnis von Risiken als sozial konstruiert und politisch strittig. Das Konzept des Risikos ist nur eine mögliche Weise, Schaden, Entscheidungsfindung und Unsicherheit zu konzipieren, und zwar eine, die vor allem probabilistische Rechnungsprozesse und technische Fachkenntnisse prioritisiert. Dennoch stellt jeder Schritt in Risikoeinschätzungs- und -minderungsprozessen Entscheidungen dar, die zutiefst politisch, ideologisch und verteilungsrelevant sind – insbesondere in einem solchen Bereich der Regulierung, in dem das ‚öffentliche Interesse‘ sehr umstritten ist. Es folgt daraus, dass das Risikomanagementsystem im DSA zu einem wichtigen Feld für politische Konflikte darüber wird, wie groβe Plattformen betrieben werden sollen.

    Auf dieser Basis analysiert der Artikel die normativen und politischen Folgen der Entscheidung, umstrittene Probleme im Bereich der Plattformregulierung als Risiken zu konzipieren, sowie der spezifischen Ausprägung des Risikomanagementssystems im DSA. Er schlägt vor, dass zentrale Eigenschaften dieses Systems – nämlich die vage und abstrakte Definition von Risiken, der Mangel detaillierter Compliance- und Übersichtstandards, sowie die Delegation der gesetzlichen Auslegung an Plattformen und private Auditoren – die Gefahr einer Vereinnahmung durch die kommerziellen Interessen der VLOPs schaffen. Gleichzeitig wird es schon anhand ihrer bisher initiierten Durchsetzungsverfahren und Untersuchungen klar, dass die Europäische Kommission auch plant, das Verständnis und die Priorisierung von Risiken nach eigenen Vorstellungen zu beeinflussen. Der DSA schafft also die Möglichkeit, dass höchstpolitische Fragen der Governance digitaler Medien neben den Interessen der Plattformkonzernen auch immer stärker durch die Interessen von Regierungsinstitutionen geprägt werden – mit ambivalenten Implikationen für Menschenrechte, Gleichheit, und Freiheit des öffentlichen Diskurses.

    Rachel Griffin ist Doktorandin und Dozentin der Jurafakultät an der Sciences Po Paris. Ihre Forschung konzentriert sich auf die europäische Regulierung groβer Online-Medien-Plattformen und auf deren Bezug auf soziale Ungleichheiten und Diskriminierung. Zudem ist sie Co-Leiterin (neben Prof. Dr. Beatriz Botero Arcila) des neuen Forschungsprojekts Delimiting Systemic Risks in Social Media Governance: Putting the DSA Into Practice.

    Plattformisierung von KI – zum Beispiel ChatGPT

    Prof. Dr. Jan Distelmeyer (FH Potsdam & Universität Potsdam)

    Die öffentliche Debatte (und der Hype) um generative ‚Künstliche Intelligenz‘ bringt seit Ende 2022 Versprechungen und Ängste in besonderer Weise zusammen. So zahlreich die dabei adressierten Aspekte und Fragen sind, scheinen sie doch zumeist durch eine Gemeinsamkeit verbunden, die als Zukunftsorientierung beschrieben werden kann. Dabei geht es weniger um Entstehungsprozesse und Bedingungen des Phänomens KI als vielmehr um seine Auswirkungen: überraschende, ermutigende oder beängstigende Effekte stehen im Zentrum einer Aufmerksamkeit, die sich daraufhin um weitere Folgen kümmert oder diese einzuschränken sucht (wie z.B. durch den AI Act der Europäischen Union). Debatten zu ‚the end of work‘, die Sorge vor dem ‚Ende der Wahrheit‘, Hoffnungen zum KI-Einsatz in der Medizin und das ‚Statement on AI Risk‘ stehen dafür.

    Bei dieser prognostischen Perspektive, für die es gute Gründe gibt und die auf merkwürdige Weise mit der zugrundeliegenden Technik des Machine Learning korrespondiert, gerät leicht aus dem Blick, was gegenwärtig (und in der jüngsten Vergangenheit) an Bedingungen, Prozessen und Infrastrukturen nötig und in der Entwicklung begriffen sind. Die (u.a. mit Anne Helmond, David B. Nieborg, Thomas Poell und José van Dijck zu stellende) Frage der Plattformisierung von KI hilft dabei, einige dieser Bedingungen, Prozesse und Infrastrukturen in den Blick zu nehmen.
    In diesem Sinne nimmt der Vortrag das Beispiel ChatGPT zum Anlass, insbesondere Interfaces und Arbeitsverhältnisse in den Fokus zu rücken. Ausgehend von den Erkenntnissen der Software Studies und Medienwissenschaften zu diversen Formen und Ebenen von Interfaces (von APIs bis zu GUIs) irritieren User-Interfaces von ChatGPT das Bild einer unzugänglichen ‚Black Box‘ und geben vielmehr Anlass, weiterführende Fragen zu stellen.

    Jan Distelmeyer ist Professor für Mediengeschichte und -theorie im Kooperationsstudiengang Europäische Medienwissenschaft der Fachhochschule Potsdam und Universität Potsdam. Aktuelle Forschungsschwerpunkte liegen im Verhältnis von Medialität und Digitalität mit einem besonderen Interesse an Interfaces sowie Fragen der Automatisierung und Autonomie. Zu aktuellen Veröffentlichungen gehören Critique of Digitality (Übers. von Kritik der Digitalität) und Video Conferencing: Infrastructures, Practices, Aesthetics (Hg. mit Axel Volmar und Olga Moskatova).

  • Sys­­te­­ma­­ti­­sierend: Ver­­ant­­wor­tung von Platt­for­men un­ter dem DSA – Sys­­te­­mische Ri­si­­ken als effek­tive Re­gu­­lier­ungs­­ka­­te­­go­rie?

    „Das Verhältnis von Realität und Fiktion fließt in den Begriff des Virtuellen ein, dessen Interpretation komplizierter ist, als es angesichts der Pseudo-Vertrautheit mit diesem Modewort erscheint.“ - Elena Esposito

    Do 7. 11. 2024 13:45 - 14:00 Uhr  

    Dieses Zitat aus dem Text „Fiktion und Virtualität“ lädt bereits im Jahr 1998 zu einer interpretierenden Verkomplizierung oder zu einer verkomplizierenden Interpretation dessen ein, was der SciFi-Autor William Gibson 1984 als Cyberspace imaginierte und uns heute im Kontext der Virtual Reality Fantasmen kommerzieller Plattformen wie Meta vermehrt begegnet.

    Dabei stellt sich vor allem die Frage, ob die oft trennscharf getroffene Unterscheidung zwischen Realität und Fiktion nicht selbst eine Realfiktion ist?

    Um uns mit den selbstbewussten Immersionsversprechen aktueller VR-Plattformen praktisch und diskursiv auseinandersetzen zu können, richten wir für die Pausen und den Abendausklang unserer Tagung einen technisch betreuten Pausenraum ein. Als Beispiel dienen uns verschiedene Anwendungen auf der MetaQuest VR-Brille, sowie ethnografische Kurzexkursionen ins sogenannte Metaverse.

    Wir danken dem neugegründeten Immersive Collaboration Hub der FernUniversität in Hagen für die umfangreiche Unterstützung.

  • Prob­le­ma­ti­sierend: So­cial Enge­neering – Zur Re­kon­fi­gu­ra­tion so­zia­ler Pra­xen durch Platt­form­isie­rung

    Chair: Dr. Thorben Mämecke (FernUniversität in Hagen)

    Dark Design Patterns, Doomscrolls, Rage farming, User Engagement, Retention Messages, Infinity Reels, Intermittent Reinforcement – der psychopolitische Werkzeugkasten von Social-Media-Plattformen ist vielfältig, wenn es darum geht, Nutzer:innen zu bestimmten Handlungen zu bewegen. Der Fokus dieses Panels soll auf Apps und IoT-Environments liegen, die vergleichbare soziotechnische Steuerungs- und Kontrolltechniken auf soziale Praxen außerhalb der Social Media übertragen. Beispiele können plattformisierete Workplace Sourveillance-, Mobilitätsmanagement-, New-Learning-, eHealth-Systeme oder Augmented-Gaming-Apps sein.

    Dr. Thorben Mämecke ist wissenschaftlicher Geschäftsführer des FSP digitale_kultur. Er forscht zu den Schwerpunkten Subjektivierung und Gouvernementalität im Kontext von Technologiediskursen sowie Dataveillance und data driven social Engineering. Er hat am Graduiertenkolleg „Automatismen” zum Thema Selbstverdatung und partizipative Technologieentwicklung promoviert. Zuvor arbeitete er als Dozent im Fach Mediensoziologie an der Universität Bielefeld sowie als wissenschaftlicher Mitarbeiter im Projekt „Numerische Inklusion” des DFG SPP „Mediatisierte Welten”.

    Do 7. 11. 2024 14:00 - 15:30 Uhr  
    Social Reverse Engineering – Ein kritisch-explorativer Beitrag zur „Plattformisierung des Lernens”

    Christian Leineweber (OvGU Magdeburg) & Maximilian Waldmann (FernUniversität in Hagen)

    Reverse Engineering bezeichnet in technischen Zusammenhängen die Dekonstruktion und Analyse von Technologien, um deren Beschaffenheit und Funktion zu erschließen (vgl. Friesinger & Herwig: The Art of Reverse). In unserem Vortrag verwenden wir den Terminus in einer abgewandelten Bedeutung, die sich auf die Relation zwischen Technologie und Gesellschaft bezieht, um ihre Bedeutung und Wirkung für individuelle und kollektive Lernprozesse erschließen zu können.
    Einerseits wollen wir zeigen, inwieweit angesichts der Intransparenz von Algorithmen das Verhältnis zwischen Technik und Sozialität neu geordnet wird. Ausgehend von einem Verständnis von Algorithmen als epistemische Akteure (vgl. Gramelsberger: Philosophie des Digitalen zur Einführung) lautet unsere These, dass algorithmische Wissensordnungen die Beziehungen sozialer Akteur:innen untereinander und ihre Position in sozialen Gefügen nach technisch bestimmten Kriterien neu ordnen. Sozial herausfordernd ist daran die epistemische Opazität der Systeme: Ihre Funktionslogiken sind für die Allgemeinheit genauso wenig ersichtlich, wie ihre sozialdiskriminatorischen Effekte auf das Zusammenleben als unvorhersehbar gelten (Airoldi: Machine Habitus).
    Dem Problem der epistemischen Opazität der Systeme wollen wir andererseits mit der Argumentation begegnen, dass die die Effekte der Implementierung von Maschinenlernsystemen auf das Soziale greifbar sind und kritisch diskutiert werden können, indem rekonstruktiv Rückschlüsse aus bisherigen, vergleichbaren Anwendungsszenarien gezogen werden (etwa im Hinblick auf Überwachung, Fremdsteuerung, automatisierte Ungleichheiten), normativ ethische Kriterien für eine verantwortungsvolle soziale Algorithmen-Praxis entwickelt werden (z. B. durch Equity-Audits) und prospektiv andere politische Zukünfte algorithmisierter Wirklichkeiten imaginiert werden (fabulatorische, dekonstruierende und „algoaktivistische“ Auseinandersetzungen).
    Diese drei Aspekte des sozialen reverse engineering wollen wir anhand praktischer Beispiele aus dem Bereich der Plattformisierung pädagogischer Prozesse diskutieren – darunter die Vorhersage von Hochschullernerfolgen durch so genannte Learning Analytics und die Gamifizierung des Lernens durch eine Plattform für schulisches Lernen.

    Maximilian Waldmann ist Postdoc im Lehrgebiet Bildung und Differenz an der FernUniversität in Hagen. Zu seinen Forschungsschwerpunkten zählen u.a. Macht-, Herrschafts- und Ungleichheitsverhältnisse in der postdigitalen Kultur aus medienpädagogischen Perspektiven.

    Dr. Christian Leineweber (OvGU Magedburg) arbeitet zu medienpädagogischer Bildungstheorie, zur Quantifizierung in pädagogischen Handlungsfeldern sowie zu bildungswissenschaftlicher Medienforschung und den Themen Bildung und Zeit.

    Plattformisierung der Datenverarbeitung? Datenintegrations- und -analyseplattformen als Subtyp digitaler Plattformen

    Dr. Simon Egbert (Universität Bielefeld)

    Social-Media-Plattformen wie Facebook, App-Plattformen wie Google Play, Gig-Economy-Plattformen wie Airbnb, Uber oder Delivery Hero sind mittlerweile alltägliche Begleiter für viele Menschen. Es ist daher nicht verwunderlich, dass bereits zahlreiche Studien zu diesen digitalen Plattformen existieren, in denen sie insbesondere hinsichtlich ihrer zugrundeliegenden Politik sowie ihres zunehmenden Einflusses auf die Gesellschaft diskutiert wurden. Die bestehende Literatur neigt jedoch dazu, sich stark auf die bekannten, insb. internetbasierten, digitalen Plattformen zu konzentrieren, weshalb andere Arten weitgehend ignoriert werden. Dazu gehört insbesondere eine Art von Plattform, die als Datenintegrations- und ‑analyseplattform bezeichnet werden kann und die sich in den letzten Jahren vor allem durch die Softwarelösungen des US-Unternehmens Palantir Technologies verbreitet hat. Diese Art von Plattform werde ich in meinem Vortrag mit Bezug auf die mehrdimensionale Plattform-Definition von Srnicek (2016) als digitale Plattform konzeptualisieren und deren wesentlichen Eigenschaften im Sinne eines eigenen Subtyps von digitaler Plattform herausstellen. Um die Besonderheit dieses neuen Plattformtyps zu betonen, stelle ich Palantir Technologies als ein Fallbeispiel vor und hebe dabei die strukturellen Merkmale und technischen Schlüsselmerkmale ihrer Plattformen hervor. Dies wird schlussendlich zeigen, dass Datenintegrations- und Analysedienste auch als Plattformen verstanden werden sollten, da sie wie andere Plattformen als veränderbare digitale Infrastrukturen dienen, die verschiedene Parteien zusammenbringen und datenabhängige Interaktion ermöglichen.

    Dr. Simon Egbert, Wissenschaftlicher Mitarbeiter an der Universität Bielefeld im ERC-Projekt „The Future of Prediction”. Zudem Projektleitung Teilprojekt Bodycams, Forschungsverbund „Visions of Policing”. Zuvor Tätigkeiten an der TU Berlin, im Graduiertenkolleg Innovationsgesellschaft heute, sowie an den Universitäten Hamburg und Bremen. Promotion 2018 mit einer Arbeit zum Thema Diskurs und Materialität an der Universität Hamburg. Forschungsinteressen: Prädiktive Algorithmen, Plattformen, Polizei, Soziologie des Testens, Soziotechnische Interaktion.

    Dialektik der Plattform-Arbeit: Eine kritische Perspektive auf das Spannungsfeld von Kontrolle und Autonomie

    Jasmin Schreyer (FAU Erlangen-Nürnberg)

    Die allgemeinen Trends zur Flexibilisierung, Finanzialisierung, Deregulierung und Digitalisierung der Arbeit spiegeln sich in der plattformbasierten Gig Economy besonders zugespitzt wider. Im Mittelpunkt dieses Wandels stehen digitale Plattformen, die Märkte privatisieren, sich selbst als Intermediäre – weniger als Organisationen, die für Beschäftigte zuständig sind – definieren, wodurch die technischen Infrastrukturen immer mehr zur Voraussetzung für die Wertschöpfung, und ihre Logik zu gesellschaftlichen Normen werden. Als Intermediär vernachlässigen sie, selbst bei abhängigen Beschäftigten, die traditionellen Rechte und Pflichten dieser. Asymmetrische Informations- und Wissensbestände verschärfen die strukturelle Schieflage der industriellen Beziehungen weiter: Plattformunternehmen negieren die Tarifautonomie, sie sind weder Mitglied in klassischen Arbeitgeberverbänden, noch scheint sich auf der betrieblichen Ebene reguläre Tarifverhandlungen abzuzeichnen, da sie sich selbst nicht als arbeitgebende Organisation verstehen und eine Zustimmung zu Tarifverhandlungen einer Regulierung gleich käme.
    Nichtsdestotrotz evoziert die engmaschige algorithmische Arbeitssteuerung und das atomisierte Arbeitshandeln ein Spannungsfeld, in dem eine hohe Protesthäufigkeit in der digitalen Plattformökonomie, insbesondere im Logistiksektor, zu beobachten ist. Der Vortrag beleuchtet anhand einer Fallstudie die Selbstorganisation von angestellten Plattformarbeitern in der Essenzustellung in Deutschland und zeigt auf, wie trotz der Herausforderungen wie Atomisierung, Hetereogenität und Sprachbarrieren eine Organisierung erfolgt ist. Die These des Vortrags rekurriert auf ein rigides algorithmisches Management, das dazu beitragen kann, dass sich aufgrund der fehlenden Kommunikation, neue – externe –Kommmunikationsräume bilden, die dann wiederum eine Interessenartikulation und eine Selbstorganisation begünstigen. Trotz beschränkter rechtlicher Schutzmöglichkeiten haben basisorganisierte Initiativen gemeinsam mit traditionellen Gewerkschaften Verbesserungen der Arbeitsbedingungen erreicht und das Ungleichgewicht zumindest teilweise zu Gunsten der Arbeitskräfte verändert.

    Schreyer, Jasmin, M.A., ist Soziologin und seit 2020 wissenschaftliche Mitarbeiterin an der FAU Erlangen-Nürnberg und am Lehrstuhl für Soziologie mit dem Schwerpunkt Technik, Arbeit, Gesellschaft angestellt. Dort ist sie neben ihrer Lehrtätigkeit im Koordinationsprojekt des DFG SPP 2267: „Digitalisierung der Arbeitswelten” tätig. Während sich das Koordinationsteam ausgehend von den empirischen Projekten mit der konzeptionell-theoretischen Frage auseinandersetzt, ob die gegenwärtigen Digitalisierungstrends bereits eine „Transformation” in Gang gesetzt haben, untersucht sie in ihrer Promotion qualitativ-rekonstruierend wie Gig Worker:innen in der lokalen Essenauslieferung im Spannungsfeld von Autonomie, Kontrolle und Selbstorganisation kollektive Handlungsfähigkeit und Solidarität etablieren.

  • Sys­­te­­ma­­ti­­sierend: Ver­­ant­­wor­tung von Platt­for­men un­ter dem DSA – Sys­­te­­mische Ri­si­­ken als effek­tive Re­gu­­lier­ungs­­ka­­te­­go­rie?

    „Das Verhältnis von Realität und Fiktion fließt in den Begriff des Virtuellen ein, dessen Interpretation komplizierter ist, als es angesichts der Pseudo-Vertrautheit mit diesem Modewort erscheint.“ - Elena Esposito

    Do 7. 11. 2024 15:30 - 16:00 Uhr  

    Dieses Zitat aus dem Text „Fiktion und Virtualität“ lädt bereits im Jahr 1998 zu einer interpretierenden Verkomplizierung oder zu einer verkomplizierenden Interpretation dessen ein, was der SciFi-Autor William Gibson 1984 als Cyberspace imaginierte und uns heute im Kontext der Virtual Reality Fantasmen kommerzieller Plattformen wie Meta vermehrt begegnet.

    Dabei stellt sich vor allem die Frage, ob die oft trennscharf getroffene Unterscheidung zwischen Realität und Fiktion nicht selbst eine Realfiktion ist?

    Um uns mit den selbstbewussten Immersionsversprechen aktueller VR-Plattformen praktisch und diskursiv auseinandersetzen zu können, richten wir für die Pausen und den Abendausklang unserer Tagung einen technisch betreuten Pausenraum ein. Als Beispiel dienen uns verschiedene Anwendungen auf der MetaQuest VR-Brille, sowie ethnografische Kurzexkursionen ins sogenannte Metaverse.

    Wir danken dem neugegründeten Immersive Collaboration Hub der FernUniversität in Hagen für die umfangreiche Unterstützung.

  • Sys­­te­­ma­­ti­­sierend: Ver­­ant­­wor­tung von Platt­for­men un­ter dem DSA – Sys­­te­­mische Ri­si­­ken als effek­tive Re­gu­­lier­ungs­­ka­­te­­go­rie?

    Chair: Dr. Julian Jaursch (interface-eu.org)

    Das Panel behandelt die Verantwortung großer Plattformen für systemische Risiken unter dem Digital Services Act. Dabei soll beleuchtet werden, ob die neue Kategorie der systemischen Risiken, zu denen bspw. die Beeinflussung der gesellschaftlichen Debatte gehört, dazu beitragen kann, Plattformen für gesellschaftlich relevante Gefährdungen zur Verantwortung zu ziehen und für unabhängige Forschungsprojekte zu öffnen. Ziel ist eine kritische Analyse des Regulierungsansatzes des DSA und der beteiligten und adressierten Akteure.

    Julian Jaursch ist Projektleiter im Bereich „Stärkung der digitalen Öffentlichkeit” bei der gemeinnützigen Organisation interface. Seine Arbeitsschwerpunkte sind Fragen des Umgangs mit Desinformation und der Regulierung von Technologieplattformen. Er analysiert Ansätze der Plattformregulierung im deutschen, europäischen und transatlantischen Kontext und entwickelt Handlungsempfehlungen für politische und zivilgesellschaftliche Entscheidungsträger.

    Do 7. 11. 2024 16:00 - 17:30 Uhr  
    Vorhersagemacht als Facette von Plattformmacht

    Jun.-Prof. Dr. Hannah Ruschemeier (FernUniversität in Hagen)
    Prof. Dr. Rainer Mühlhoff (Universität Osnabrück)

    „Wir führen das Konzept der ‚Vorhersagemacht‘ als eine entscheidende Komponente für das Verständnis von Plattformmacht ein. Plattformmacht gehört zu den Herausforderungen, mit denen sich das Gesetz über digitale Dienste (DSA) befasst. Wir werden untersuchen, ob das Regelungskonzept der DSA geeignet ist, die Vorhersagekraft einzuhegen. Plattformen, insbesondere sehr große Online-Plattformen (Very Large Online Platforms, VLOPs), spielen eine zentrale Rolle im Prozess der digitalen Transformation. Machtfragen überschneiden sich mit Fragen der Rechtsstaatlichkeit und der Regulierung – Konzepte, die einen doppelten Zweck erfüllen und sowohl auf die Legitimierung als auch auf die Begrenzung von Macht abzielen. Wir gehen davon aus, dass zur Bewältigung dieser Herausforderungen ein interdisziplinärer Ansatz erforderlich ist.
    Unser Konzept der Plattformmacht betont die Dimension der Informationsasymmetrien. Wir argumentieren, dass Vorhersagemacht eine wichtige, wenn auch oft vernachlässigte Facette von Plattformmacht ist. Plattformmacht geht über ökonomische Macht in Form einer marktbeherrschenden Stellung hinaus und beinhaltet eine Form von Herrschaft und Kontrolle über die Datenaggregation und die daraus resultierende Informationsproduktion. Die daraus resultierende Vorhersagekraft ermöglicht es den Eigentümer:innen großer aggregierter Datensätze (z.B. Tracking-Daten, Kaufdaten, Nutzungsdaten usw.), auf nicht offengelegte Informationen (z.B. Geschlecht, sexuelle Orientierung, Einkommen usw.) über Einzelpersonen zu schließen.

    Wir argumentieren, dass die Fähigkeit, solche datengestützte Vorhersagemodelle zu entwickeln und zu pflegen, untrennbar mit der Stärke der Plattform verbunden ist. Die Extraktion von Daten ist kein bloßes Nebenprodukt, sondern ein integraler Bestandteil der Geschäftsmodelle und Architekturen der Plattformen. Die Nutzung solcher Einschätzungen in großem Maßstab durch die automatische Anwendung von Vorhersagemodellen auf Millionen von Nutzer:innen trägt dazu bei, soziale Unterschiede, Ausgrenzungsmuster, Diskriminierung und Ausbeutung zu schaffen und zu verfestigen. Wir beleuchten die informationelle Dimension von Plattformmacht, die sich nicht auf die ökonomische Dimension reduzieren lässt. So ist die Prognosefähigkeit eine wichtige Dimension der Plattformmacht und eine zeitgenössische Manifestation der Asymmetrie der Informationsmacht. Vorhersagekraft steht denjenigen zur Verfügung, die in der Lage sind, massive Datensätze anzuhäufen; sie bietet einen marktfähigen Vorteil gegenüber Konkurrenten, und sie kann (und wird) gegen einzelne Datensubjekte und die Gesellschaft als Ganzes eingesetzt werden, indem sie soziales Sortieren, Diskriminierung und Verletzungen der Privatsphäre ermöglicht. Dies hat Auswirkungen auf soziale und demokratische Funktionen sowie auf das Infrastrukturmanagement und die Rechte des Einzelnen.”

    Hannah Ruschemeier ist seit 2022 Juniorprofessorin für Öffentliches Recht mit Schwerpunkt Datenschutzrecht und Recht der Digitalisierung (Tenure Track W3) an der Rechtswissenschaftlichen Fakultät der FernUniversität in Hagen. Sie hat Rechtswissenschaft an der Westfälischen Wilhelms-Universität Münster und der National and Kapodistrian University Athen studiert. Ende 2018 wurde sie mit der Dissertation zum additiven Grundrechtseingriff an der Heinrich-Heine-Universität in Düsseldorf promoviert. Nach ihrem Rechtsreferendariat und dem Zweiten Staatsexamen war sie am Center for Advanced Internet Studies (CAIS) in Bochum zunächst als Forschungsreferentin im Projekt „Künstliche Intelligenz in Staat und Verwaltung” und im Anschluss als Principal Investigator Rechtswissenschaften im Team ELSI (ethical, legal and social issues of digitalisation) tätig. Zu ihren Forschungsschwerpunkten zählen die Regulierung neuer Technologien, digitale Aspekte von Verwaltungs- und Verfassungsrecht, rechtstheoretische Grundlagen der Digitalisierung, Datenschutzrecht und rechtliche Aspekte von Privatheit.

    Rainer Mühlhoff, Philosoph und Mathematiker, ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück. Er forscht zu Ethik, Datenschutz und kritischer Sozialtheorie in der digitalen Gesellschaft. In seiner interdisziplinären Arbeit bringt er Philosophie, Medienwissenschaft und Informatik zusammen und untersucht das Wechselspiel von Technologie, Macht und gesellschaftlicher Veränderung.

    Systemische Risikominderung – Innovation oder leeres Versprechen? Herausforderungen bei der Durchsetzung von Nutzer:innenrechten

    Svea Windwehr (Gesellschaft für Freiheitsrechte)

    „Der Ansatz systemischer Risikoanalysen (Art. 34 DSA) und entsprechenden Risikominderungsstrategien (Art. 35 DSA) ist eine zentrale Errungenschaft des Digital Services Act, um gesamtgesellschaftlich negativen Auswirkungen von sehr großen Online-Plattformen begegnen zu können. Jenseits von individuellen Nutzer:innenrechten und deren Durchsetzung bietet das Konzept systemischer Risiken so neue Potenziale für den Schutz von Grundrechten im Netz. Insbesondere der breite Katalog an nicht-definierten systemischen Risiken ist ein Hoffnungsschimmer für Akteure, die gegen rechtlich schwer zu fassende Herausforderungen wie den Einfluss von Online-Plattformen auf öffentliche Diskurse oder die öffentliche Gesundheit vorgehen möchten. So scheint die Durchsetzung der Artikel 34 und 35 die allgegenwärtige Antwort auf viele der aktuell komplexesten Fragen im Bereich der Plattformregulierung zu sein. Dem gegenüber stehen signifikante Herausforderungen in der Durchsetzung der systemischen Risikoverpflichtungen des DSA, sowie divigierende Interessen und Erwartungen von Aufsichtsbehörden und zivilgesellschaftlichen Akteuren.
    Der Vortrag gibt einen Überblick zu verschiedenen Ansätzen bei der Durchsetzung der systematischen Risikoverpflichtungen des DSA und geht auf die dabei auftretenden Herausforderungen insbesondere für zivilgesellschaftliche Akteure ein.”

    Svea Windwehr ist Assistant Director of EU Policy bei der Electronic Frontier Foundation, wo sie zu europäischer Digitalpolitik mit einem Schwerpunkt auf Plattformregulierung, Nutzer:innenrechte und Überwachung arbeitet. Zuvor hat sie das Center for User Rights der Gesellschaft für Freiheitsrechte geleitet und bei Google und der Europäischen Kommission gearbeitet. Sie ist ehrenamtliche Co-Vorsitzende von D64 e.V., einem überparteilichen Verein mit über 800 Mitgliedern, der sich für progressive Digitalpolitik einsetzt, und Mitglied des Beirats der Koordinierungsstelle für Digitale Dienste. Sie studierte Politikwissenschaft, Recht und internationale Beziehungen in Maastricht und Berkeley und erwarb einen Masterabschluss am Internet Institute der University of Oxford.

    Systemische Risikoanalyse und individueller Rechtsschutz – Normative und praktische Herausforderungen

    Niklas Eder (Oxford Law School & King’s College London)

    „Zwei Regulierungsansätze sind im DSA zentral: systemische Risikoanalysen und individueller Rechtsschutz. Dieser Vortrag befasst sich mit normativen Grundlagen und praktischen Herausforderungen in beiden Bereichen.
    Der Vortrag stellt systemische Risikoanalysen als einen entscheidenden Schritt in Richtung einer Verantwortlichkeit von Plattformen vor. Zugleich bringen Risikoanalysen, die sich mit Regulierung von öffentlicher Rede und Meinungen befassen, große Herausforderungen mit sich. Traditionelle Bezugspunkte für die Regulierung von Content Moderation wie Allgemeine Geschäftsbedingungen, Vertragsfreiheit, Grundrechte und Expertenwissen bieten keine ausreichende und legitime Grundlage für die Konkretisierung von Pflichten zur Risikoanalyse. Auch staatliche Akteure wie die Kommission sollten davon absehen, inhaltliche Standards zu definieren, da sie unmittelbar an die Garantien der Meinungsfreiheit gebunden sind. Stattdessen sollte die Kommission einen prozeduralen Rahmen fördern, der es der Zivilgesellschaft ermöglicht, die Standards für systemische Risiken im Laufe der Zeit zu spezifizieren und zu verfeinern.

    Im Hinblick auf den individuellen Rechtsschutz wird erläutert, wie außergerichtliche Streitbeilegungsstellen den gerichtlichen Rechtsschutz ergänzen und so zum Schutz der Rechte von Nutzern und anderen Betroffenen beitragen können. Drei Elemente werden diskutiert, die den Mehrwert von Streitbeilegungsstellen bestimmen: Ihre Unabhängigkeit, ihre Fähigkeit, gut begründete Entscheidungen zu treffen, und ihr Ansatz Grundrechte zu berücksichtigen.”

    Niklas Eder (LLM und Maître en Droit) ist Mitbegründer von User Rights, Postdoctoral Fellow für digitale Politik am Centre for Socio Legal Studies der Oxford Law School und Gastdozent am King’s College London. Zuvor war Niklas Senior Policy Officer beim Oversight Board, wo er Arbeitsbereiche zu systemischen Risikobewertungen, automatisierter Inhaltsmoderation und strategischer Governance leitete. Niklas war außerdem Fellow am Information Society Project der Yale Law School, wo er sich mit der Bewertung der gesellschaftlichen Auswirkungen von KI befasste. Als Gastwissenschaftler an der Columbia University forschte er über die Legitimität des Europäischen Gerichtshofs im Kontext von Rechtsstaatskonflikten. Seine Dissertation schrieb er bei Mattias Wendel an der Universität Leipzig unter dem Titel Legal Reasoning and the Values of the EU – A Reflection on the Past, Present and Future of ECJ. Er arbeitete an der Freien Universität Berlin, der Humboldt-Universität zu Berlin und im Deutschen Bundestag. Niklas hat einen LL.M. vom King’s College London, eine Maîtrise en Droit von der Université Paris 2 und einen Abschluss in Rechtswissenschaften von der Humboldt-Universität.

  • Sys­­te­­ma­­ti­­sierend: Ver­­ant­­wor­tung von Platt­for­men un­ter dem DSA – Sys­­te­­mische Ri­si­­ken als effek­tive Re­gu­­lier­ungs­­ka­­te­­go­rie?

    „Das Verhältnis von Realität und Fiktion fließt in den Begriff des Virtuellen ein, dessen Interpretation komplizierter ist, als es angesichts der Pseudo-Vertrautheit mit diesem Modewort erscheint.“ - Elena Esposito

    Do 7. 11. 2024

    17:30 - 18:15 Uhr

     

    Dieses Zitat aus dem Text „Fiktion und Virtualität“ lädt bereits im Jahr 1998 zu einer interpretierenden Verkomplizierung oder zu einer verkomplizierenden Interpretation dessen ein, was der SciFi-Autor William Gibson 1984 als Cyberspace imaginierte und uns heute im Kontext der Virtual Reality Fantasmen kommerzieller Plattformen wie Meta vermehrt begegnet.

    Dabei stellt sich vor allem die Frage, ob die oft trennscharf getroffene Unterscheidung zwischen Realität und Fiktion nicht selbst eine Realfiktion ist?

    Um uns mit den selbstbewussten Immersionsversprechen aktueller VR-Plattformen praktisch und diskursiv auseinandersetzen zu können, richten wir für die Pausen und den Abendausklang unserer Tagung einen technisch betreuten Pausenraum ein. Als Beispiel dienen uns verschiedene Anwendungen auf der MetaQuest VR-Brille, sowie ethnografische Kurzexkursionen ins sogenannte Metaverse.

    Wir danken dem neugegründeten Immersive Collaboration Hub der FernUniversität in Hagen für die umfangreiche Unterstützung.

  • nec supra, nec infra: Theorieprobleme auf dem Weg zu einer philosophischen Analyse des digitalen Wandels

    Prof. Dr. Petra Gehring (TU Darm­stadt)

    [tba]

    Do 7. 11. 2024 18:15 - 19:30 Uhr  

    Prof. Dr. Petra Gehring ist Professorin für Philosophie an der TU Darmstadt. Ihre Forschungsschwerpunkte liegen u.a. in der poststrukturalistischen Theoriebildung sowie in Fragen zu Technik, Macht und digitalen Infrastrukturen. Sie beschäftigt sich außerdem mit digitaler Metaphernanalyse und Methoden der Digital Humanities. Sie ist Mitherausgeberin des Journal Phänomenologie und seit 2022 der Deutschen Zeitschrift für Philosophie. Petra Gehring war Sprecherin der DFG Graduiertenkollegs „Technisierung und Gesellschaft” und „Topologie der Technik”. Seit April 2020 leitet sie das hessische Zentrum verantwortungsbewusste Digitalisierung (ZEVEDI).

  • Do 7. 11. 2024 ab 19:30 Uhr

    Von der Schallplatte, zur Festplatte zur Plattform… Die internetbasierte Kommerzialisierung ist auch in der Musikbranche allgegenwärtig. Sie verlangt den Rezipient:innen dabei oft eine Bildung an einzelne Anbieter und ihre Spezifika ab und führt zu einem tiefgreifenden Shift in der Musikproduktion selbst. Insbesondere die Veränderung der Distributions- und Rezeptionsbeziehung zu einer in Echtzeit messbaren Live-Situation hat hier in den letzten Jahren zu einer starken Individualisierung von Musik-Streams und einer immer tiefenschärferen Fokussierung der Musikproduktion auf besonders rentable Spotlights geführt. Gleichzeitig ergibt sich für Musiker:innen auch die Möglichkeiten fernab großer Labels an ein Publikum zu gelangen oder dieses selbst zu schaffen.

    Um auch diesen Aspekt des plattformisierten Internets dezent anklingen zu lassen, werden wir im Anschluss an den ersten Programmtag die Möglichkeit haben unsere Gespräche in den Tagungsräumen fortzusetzen oder neue zu beginnen. Für die Abendatmosphäre sorgen dabei generative Playlists mit den Hashtags #Ambient #House #LoFi.

  • Prob­le­ma­ti­sierend: Dif­feren­tielle Ge­füge in Be­we­gung – Zur Po­li­ti­sierung von Platt­formen

    Chair: Jun.-Prof. Dr. Jennifer Eickelmann (FernUniversität in Hagen)

    Neben der juridischen Regulierung von Plattformen sind auch zivilgesellschaftliche Initiativen, Projekte und Praktiken von Relevanz. Im Kontext zivilgesellschaftlicher Politisierungen von Plattformen geht es nicht zuletzt um Problematisierung gruppenbezogener Menschenfeindlichkeit entlang intersektionaler Differenzkategorien entlang algorithmisierter Aufmerksamkeitsmärkte. Davon ausgehend fokussiert das Panel auf konkrete Formate, Ästhetiken und Praktiken zivilgesellschaftlicher Gegenstrategien im Kontext Sozialer Medien.

    Jennifer Eickelmann ist Juniorprofessorin für Digitale Transformation in Kultur und Gesellschaft an der FernUniversität in Hagen. Zuvor war sie wiss. Mitarbeiterin am Lehrgebiet für Soziologie mit dem Schwerpunkt Soziale Ungleichheit. 2017 promovierte sie am Institut für Medienwissenschaft der Ruhr-Universität Bochum mit einer Arbeit zur Materialität mediatisierter Missachtung. Gemeinsam mit Katrin Köppert und Peter Risthaus gibt sie die Reihe Digitale Kulturen bei Hagen University Press heraus. Ihre Forschungsschwerpunkte liegen an der Schnittstelle von Medientheorie, Ungleichheits-/Kultursoziologie sowie Gender/Queer Media Studies und beschäftigen sich mit der digitalen Transformation von Subjektivierungsprozessen und affektiven Öffentlichkeiten, insbesondere im Kontext digitaler Gewalt, sowie dem digitalen Wandel des Kuratorischen im Kontext von Museen und Social Media.

    Fr 8. 11. 2024 10:00 - 12:00 Uhr  
    Sicherheit im DSA problematisieren: Soziale Medien als „sichere” Räume?

    Julia Fischer (FernUniversität in Hagen)

    Sicherheitsversprechen sind keine neuartigen Phantasmen, sind sie doch eng verknüpft sowohl mit der Entstehung wie auch Legitimation rechtsstaatlicher Prinzipien. So ist es zunächst nicht weiter verwunderlich, dass der Digital Services Act (DSA) als Reg(ul)ierungsinstrument der Europäischen Union (EU) mit dem Slogan umworben wird: ‚Mehr Sicherheit und Verantwortung im Online-Umfeld‘. Entsprechend verspricht die amtierende EU-Kommissionspräsidentin Ursula von der Leyen die Sicherstellung des digitalen Raums als ‚safe space‘. Nun kann durchaus in Frage gestellt werden, ob ‚das Online-Umfeld‘ und damit auch digitale Teilöffentlichkeiten jemals ‚safe spaces‘ waren, sind oder überhaupt sein können. Ebenso offen ist, ob ein marktwirtschaftlich-orientiertes Gesetz zur Vereinheitlichung des Binnenmarkts für digitale Dienste einen ‚safe space‘ in diesen Teilöffentlichkeiten herzustellen vermag. Wie so häufig kommt es darauf an, aus welcher Perspektive wer oder was adressiert wird. Der Vortrag beschäftigt sich auf dieser Grundlage einerseits aus Perspektive der feministischen Politikwissenschaftlerin Carol Bacchi und des Philosophen Michel Foucaults mit den Problematisierungen von ‚Sicherheit‘ durch den DSA und den damit verbundenen Sicherheitsphantasmen, die durch die Policy hergestellt werden. Doch welche Ein- und Ausschlüsse sind damit verbunden? Und wie könnten Un_Sicherheiten in digitalen Teilöffentlichkeiten über den Rahmen juridischer Logiken hinaus problematisiert und politisiert werden? Um den Fokus entsprechend zu weiten, greift der Vortrag daher andererseits zivilgesellschaftliche Strategien insbesondere aus (queer)feministischer Perspektiver auf, um verschiedene Politisierungsweisen von Sicherheit im Kontext Sozialer Medien zu diskutieren.”

    Julia Fischer arbeitet seit Juli 2022 als studentische Mitarbeiterin am Lehrgebiet für Digitale Transformation in Kultur und Gesellschaft an der FernUniversität in Hagen. Derzeit schließt sie ihr Masterstudium der Gender Studies & Politikwissenschaften an der Ruhr-Universität Bochum mit einer Arbeit über die Problematisierungen von „Sicherheit” im Digital Services Act ab. Ihre Forschungsinteressen liegen an den interdisziplinären Schnittstellen der Gender Media/Queer Studies sowie Politik- & Rechtswissenschaften, insbesondere mit Blick auf feministische politische Theorien und Feminist Science & Technology Studies.

    Digitaler Antifaschismus und Politische Bildung – Content Creator:innen und zivilgesellschaftliche Interventionen auf Plattformen

    Prof. Dr. Julia Bee (Ruhr-Uni Bochum)

    Der Vortrag entwickelt einen Ansatz der Digitalen Politischen Bildung. Digitale Politische Bildung erweitert bestehende Konzepte kritischer politischer Bildung in Bezug auf Prävention und Gegenmaßnahmen zum Faschismus im Netz (Fielitz/Marcks; Degeling/Hoffmann/Strick, Fuchs). So wie Digitaler Faschismus (Filietz/Marcks) eine soziotechnische Konfiguration ist, müssen auch Gegenmaßnahmen unter digitalen Voraussetzungen gedacht und geplant werden. Der Vortrag diskutiert die Arbeit politischer Content Creator:innen als Akteur:innen der digitalen politischen Bildung. Dabei werden eine Reihe von Problemen im Zwischenbereich von Bildung und Aktivismus behandelt. Wie gestalten politische Akteur:innen auf Plattformen demokratische Diskurse, wie informieren oder intervenieren sie? Welche Probleme (Qualitätskontrolle, digitale Gewalt, Influencer:innenökonomien) gehen damit einher? Nicht nur inhaltliche, sondern auch medienästhetische Ansätze spielen eine wichtige Rolle. Wie werden bestehende Plattformen genutzt und neue Ästhetiken und digitale Diskursräume geschaffen? Welche Probleme mit den Infrastrukturen der Plattformen gehen mit ihnen einher? Besonderes Augenmerk wird auf Content Creator:innen wie ContraPoints und PhilosophyTube gelegt. Wie können selbstorganisierte Vloger:innen und Netzwerke wie BreadTube oder Interventionen wie ReclaimTikTok dem Rechtsruck auf den Plattformen entgegenwirken? Perspektiven aus den Gender und Queer Studies sind dabei zentral, denn Ansätze aus diesem Feld entlarven und analysieren rechte Strategien der Gender- und Wissenschaftsfeindlichkeit.”

    Julia Bee ist Professorin für Gender Media Studies unter besonderer Berücksichtigung von Diversität an der Ruhr-Uni Bochum. In ihrer Forschung sind intersektionale Ansätze und Gender Medien Theorie zentral. Mit diesen Perspektiven blickt sie u.a. auch auf die Klimakatastrophe. Sie forscht zu experimentellen und kreativen Prozessen der Wissensproduktion und -vermittlung. Gesellschaftliche Vermittlungs- und Kooperationsprozesse sind dabei zentral. Aktuelle Arbeitsschwerpunkte sind: Gender, Intersektionalität und Medien; Klimagerechtigkeit und Medienwissenschaft; Mobilität und Fahrradmedien; Digitale Politische Bildung und Gender; Experimentelle Methoden; kollaborative Verfahren zwischen Uni und Zivilgesellschaft; Visuelle und sensorische Anthropologie; Affektpolitiken und -theorien.
    Publikation zum Thema: Kontrapunkte setzen – Digitale Politische Bildung mit ContraPoints.


    No politics here, please!
    Eine vergleichende Analyse der Politik digitaler Plattformen

    Maik Fielitz (Institut für Demokratie und Zivilgesellschaft in Jena)
    Marcel Jaspert (Institut für Demokratie und Zivilgesellschaft in Jena)

    Digitale Plattformen sind Orte des sozialen und politischen Austauschs. Mit der Entwicklung sozialer Netzwerke zu kommerzialisierten Anlaufstellen für Interessengruppen und Unternehmen nutzten politische Akteure zunehmend die auf Metriken getrimmten Infrastrukturen zur Verbreitung ihrer Botschaften. Da die Meta-Plattformen Manipulationsmechanismen jahrelang nicht in den Griff bekamen, zogen sie im Februar 2024 für politische Botschaften den Stecker: Meta spielt seitdem keine politischen Inhalte mehr über die Algorithmen ein, um sich (vermeintlich) neutraler zu verhalten. Dieser Schritt ist im Kontext der Entwicklung eigener politischer Entscheidungen der Plattformen im Umgang mit schädlichen Inhalten zu verstehen. Plattformen können sowohl durch technische Grundlagen als auch durch das Plattformmanagement die Grenzen des Austauschs und die Sichtbarkeit von Positionen und Personen beeinflussen. Forschung zeigt eine technisch bedingte Tendenz zur Polarisierung auf Plattformen, die Hass und extremistische Agitation fördert. Daher hat das Kuratieren von Inhalten auf digitalen Plattformen an Bedeutung gewonnen, einhergehend mit einer zunehmenden Regulierung digitaler Kommunikation, die sich an politischen und ökonomischen Entwicklungen orientiert. Die Plattformlandschaft besteht aus etablierten Plattformen, die zu unterschiedlichen Zeitpunkten auf den Markt kamen, aus diversen Teilen der Welt stammen und sich in ihren Merkmalen unterscheiden. Dieser Beitrag zeigt die politischen Dimensionen und Entwicklungen in der Plattformlandschaft auf und untersucht, inwieweit sich Plattformpolitiken voneinander unterscheiden, aber auch gegenseitig bedingen. Der Beitrag soll dazu beitragen, das politische Handeln digitaler Plattformen verständlicher zu machen.

    Marcel Jaspert ist wissenschaftlicher Mitarbeiter am Institut für Demokratie und Zivilgesellschaft in Jena. Im Rahmen des vom BMBF geförderten NEOVEX-Verbundprojekts erforscht er die Rolle, Politik und Rechtfertigungsmuster digitaler Plattformen bei der Verbreitung und Einhegung rechtsextremer und verschwörungsideologischer Dynamiken.

    Maik Fielitz ist Bereichsleiter für Rechtsextremismus- und Demokratieforschung am Jenaer Institut für Demokratie und Zivilgesellschaft sowie Co-Leiter der Forschungsstelle der Bundesarbeitsgemeinschaft „Gegen Hass im Netz”. Im Mittelpunkt seiner Arbeit steht die Frage, wie digitale Technologien und digitale Kulturen den Rechtsextremismus beeinflussen und wie liberale Demokratien autoritären Tendenzen in Online-Kontexten begegnen.

    Hass im Netz und die Konstruktion des „guten” Diskurses

    Dr. Sebastian Althoff (Universität Paderborn)

    Ein Tweet, ein Post, ein Bild – der Hass ist nie weit, die Meute rottet sich schnell zusammen, die Eskalationsstufen sind schnell erklommen, egal wie nichtig der Anlass, egal wie groß die Diskrepanz zwischen Auslöser und Resultat‘ (Diekmann, 2021, S. 9). So oder so ähnlich wird im deutschsprachigen Raum seit Jahren eine Assoziation zwischen den Worten Hass und Netz nähergebracht. Diese Assoziation identifiziert nicht nur einen abzulehnenden Diskurs, sondern, so wird argumentiert, konstruiert auch den im Gegensatz positiven, erstrebenswerten, legitimen und demokratischen Diskurs. Dieser ‚gute‘ Diskurs erhält Durchsetzungskraft gerade durch den Kontrast zum Abzulehnenden. Dies lässt sich etwa an den Büchern untersuchen, die alle paar auf dem deutschen Markt landen und seinen Leser:innen den Hass im Netz erklärt – Bücher wie Hass ist keine Meinung: Was die Wut in unserem Land anrichtet, geschrieben von der Grünen-Politikerin Renate Künast, oder Die Shitstorm-Republik: Wie Hass im Netz entsteht und was wir dagegen tun können von der Journalistin Nicole Diekmann. Auf eine Auswahl dieser Bücher konzentriere ich mich, um zu zeigen, wie der ‚gute‘ Diskurs Betroffenenperspektiven überdeckt bzw. nekropolitisch inkludiert, das heißt, den Handlungsdruck und Legitimation, welche durch Gewalt produziert werden, von den Betroffenen zu einem ‚Wir‘ der liberal-demokratischen Gesellschaft und ihrer Akteur:innen transferiert. Durch diese Inklusion wird ein bestimmtes Modell von Demokratie legitimiert und als bedroht gesetzt, welches Demokratie als erfüllt und zu bewahren versteht – der Status quo wird versicherheitlicht – und in individuellen Standpunkten verankert, die durch Konfrontation mit konträren Standpunkten ‚besser‘ werden sollen. Dies hat zur Folge, dass Gruppen, die sich auf sozialen Medien organisieren oder damit in Bezug gesetzt werden können, von vorhinein dem Verdacht ausgesetzt sind, einem ‚schlechten‘ Diskurs zu folgen, bei dem Signalwörter wie Hass, Meute oder Eskalation nicht weit sind. Die sozialen Medien als Orte der politischen Organisation und Willensbildung werden dadurch delegitimiert.

    Sebastian Althoff ist wissenschaftlicher Mitarbeiter am Institut für Medienwissenschaften, Universität Paderborn. Prägende biografische Eckpunkte waren: Studium der politischen Philosophie in Bayreuth, Frankfurt und der EHESS in Paris; Mitarbeit an der Akademie der Bildenden Künste München und in der Forschungsgruppe Medien und Mimesis; schließlich 2021 Promotion in Medienwissenschaften an der Ruhr-Universität Bochum. Seine derzeitigen Forschungsprojekte kreisen um die Verurteilung des Hasses, die Delegitimation sozialer Medien und dem Begriff des Überlebens. Althoff ist der Autor von Digitale Desökonomie: Unproduktivität, Trägheit und Exzess im digitalen Milieu.

  • Sys­­te­­ma­­ti­­sierend: Ver­­ant­­wor­tung von Platt­for­men un­ter dem DSA – Sys­­te­­mische Ri­si­­ken als effek­tive Re­gu­­lier­ungs­­ka­­te­­go­rie?

    „Das Verhältnis von Realität und Fiktion fließt in den Begriff des Virtuellen ein, dessen Interpretation komplizierter ist, als es angesichts der Pseudo-Vertrautheit mit diesem Modewort erscheint.“ - Elena Esposito

    Do 8. 11. 2024 12:00 - 12:30 Uhr  

    Dieses Zitat aus dem Text „Fiktion und Virtualität“ lädt bereits im Jahr 1998 zu einer interpretierenden Verkomplizierung oder zu einer verkomplizierenden Interpretation dessen ein, was der SciFi-Autor William Gibson 1984 als Cyberspace imaginierte und uns heute im Kontext der Virtual Reality Fantasmen kommerzieller Plattformen wie Meta vermehrt begegnet.

    Dabei stellt sich vor allem die Frage, ob die oft trennscharf getroffene Unterscheidung zwischen Realität und Fiktion nicht selbst eine Realfiktion ist?

    Um uns mit den selbstbewussten Immersionsversprechen aktueller VR-Plattformen praktisch und diskursiv auseinandersetzen zu können, richten wir für die Pausen und den Abendausklang unserer Tagung einen technisch betreuten Pausenraum ein. Als Beispiel dienen uns verschiedene Anwendungen auf der MetaQuest VR-Brille, sowie ethnografische Kurzexkursionen ins sogenannte Metaverse.

    Wir danken dem neugegründeten Immersive Collaboration Hub der FernUniversität in Hagen für die umfangreiche Unterstützung.

  • Sys­te­ma­ti­sierend: Me­tho­d(ologi)en der Platt­form­for­schung – Zum Stand der De­bat­te

    Chair: Dr. Felix Raczkowski (Universität Bayreuth) & Dr. Laura Niebling (Universität Regensburg)

    Das Frontend der Plattform ist ein hochgradig technifizierter und interaktiver Sozialraum. Im Forschungsprozess erscheint uns ebendieser nicht als steriles Forschungsobjekt, sondern jede:r Beobachter:in wird notwendigerweise durch eigene Datenspuren, algorithmische Aufmerksamkeitsmärkte und interaktive Dynamiken aktiv in das Geschehen involviert. Damit gehen besondere method(olog)ische Herausforderungen und Fragen einher. Handelt es sich bei Plattformen um Forschungsfelder‚ Gegenstände‘ der Forschung oder gar ‚Instrumente‘?

    Felix Raczkowski ist akademischer Rat a.Z. am Lehrstul für digitale und audiovisuelle Medien der Fachgruppe Medienwissenschaft an der Universität Bayreuth. Zu seinen Forschungsinteressen gehören die Theorie und Geschichte digitaler Medien, insbesondere von sozialen Netzwerken sowie digitalen Spielen und die Medien zeitgenössischer Büroarbeit. Aktuell ist er zusammen mit Laura Niebling und Sven Stollfuß Herausgeber des Handbuchs Digitale Medien & Methoden; gibt zusammen mit Christoph Büttner eine Ausgabe des AugenBlick. Konstanzer Hefte zur Medienwissenschaft mit dem Titel Magnetwand, Monitor, Meme. Büroarbeit und ihre Medien heraus und gemeinsam mit Julia Wustmann und Jennifer Eickelmann eine Special Issue des Journals Digital Culture & Education zu Differences and the Digital. Daneben arbeitet er an einer Monographie zu Fakes in Digitalen Kulturen.

    Dr. Laura Niebling ist wissenschaftliche Mitarbeiterin in der Medienwissenschaft der Universität Regensburg. Sie habilitiert und forscht dort zur Mediengeschichte der Medizinkommunikation, digitalen Kulturen und Methoden der Medienforschung. Gemeinsam mit Felix Raczkowski und Sven Stollfuß ist sie Herausgeberin des aktuell laufenden Handbuchprojekts Digitale Medien und Methoden.

    Fr 8. 11. 2024 12:30 - 14:30 Uhr  
    Plattformforschung mit Memes: Vernetzte Bilder als Datenpraktiken

    Dr. Elena Pilipets (Universität Siegen)

    Auf Social-Media-Plattformen werden wir täglich mit memetischen Inhalten unterschiedlichster Art konfrontiert. Bilder, die online zirkulieren, stehen selten exklusiv für sich, sondern sind eingebettet in die Verdatungs- und Distributionsmechanismen digitaler Medien. Die Präsentation widmet sich methodischen Variationen im Umgang mit user-generierten, web-distribuierten und plattformspezifischen Bilderwelten. Der Fokus liegt auf die im Prozess der Bildzirkulation verwickelten Datenpraktiken. Zur Veranschaulichung stehen die im Zuge des Pornografieverbots auf Tumblr geteilten Memes, die in vier aufeinander aufbauenden Schritten diskutiert werden – als zeitspezifische Praktiken visueller Aneignung (1), als affektive Mittler (2), als vernetzte Plattformartefakte (2) und als multisituierte Objekte digitaler Zirkulation (4).”

    Elena Pilipets ist wissenschaftliche Mitarbeiterin im Bereich Digitale Medien und Methoden und im SFB „Medien der Kooperation” an der Universität Siegen (PhD im Forschungsbereich Medien- und Kulturtheorie, Universität Klagenfurt). In ihrer Arbeit befasst sie sich mit Prozessen der Plattformisierung und Verdatung mit dem Fokus auf die Zirkulation visueller Inhalte in sozialen Medien. Dazu gehören aktuell datenbasierte empirische Auseinandersetzungen mit TikTok Videos, Instagram Bots, partizipativer Propaganda, Internet Memes und Online-Kommentarkulturen. Elenas Hauptinteresse widmet sich dabei der Entwicklung von methodischen Variationen im Umgang mit vernetzten Bilderwelten und affektiven Umgebungen digitaler Plattformen. Diese Methoden werden in kollaborativen Projektseminaren und Workshops gemeinsam mit Studierenden diskutiert, erprobt und weiterentwickelt.

    Methoden der kritischen Algorithmusforschung

    Prof. Dr. Tobias Matzner (Universität Paderborn)

    In den letzten Jahren sind Algorithmen zu einem zentralen Thema der Geistes- und Kulturwissenschaftlichen Forschung geworden. Ein Gegenstand, der vormals primär in der Informatik zu finden war, wird somit mit einer ganzen Reihe neuer Methoden bearbeitet: verschiedene Formen des Lesens und der Interpretation von Quellcode, empirische Studien unter Programmierer:innen und Nutzer:innen, eigenes Programmieren von Wissenschaftler:innen jenseits der Informatik, sogenannte Black Box Studien, die durch geschickte Anfragen hinter die versteckten Logiken von Programmierung kommen wollen und vieles mehr. Der Vortrag gibt einen Überblick über diese methodischen Entwicklungen. Dabei sollen vor allem solche Methoden im Vordergrund stehen, welche Algorithmen explizit mit einer politischen oder kritischen Perspektive verbinden. Dazu werden zwei Leitfragen gestellt, die den Vortrag strukturieren. Erstens: Muss man informatische Kenntnisse haben, um Algorithmen zu erforschen oder verstellen diese durch fachimmanente Logiken gerade den Blick auf wichtige Fragen? Wie verhalten sich informatische Konzepte des Algorithmus zu geistes- und kulturwissenschaftlichen? Zweitens: Was heißt es überhaupt, sich den ‚Tausend Plattformen‘ der Informations- und Kommunikationstechnologie über die Frage nach Algorithmen zu nähern? Was kann dadurch erkannt werden, was gerät aus dem Blick? Wie sind in diesem Zusammenhang auch die Kritiken an der Ausweitung des Begriffs des Algorithmus zu verstehen?

    Tobias Matzner ist Professor für Kulturen der Digitalität am Institut für Medienwissenschaften der Universität Paderborn. Nach dem Studium der Informatik und Philosophie sowie einer Promotion in Philosophie am Karlsruher Institut für Technologie war er am Internationalen Zentrum für Ethik in den Wissenschaften in Tübingen und an der New School for Social Research in New York tätig. Seine Forschung bewegt sich in den Verwicklungen von Technologie, Kultur und Politik.


    Plattformforschung nach der APIcalypse: Untersuchung kontroverser Infrastrukturen am Beispiel der Facebook Graph API

    Tatjana Seitz (Universität Siegen)

    Die Programmierschnittstellen oder Application Programming Interfaces (APIs) von Facebook ermöglichen es externen App-Entwickler:innen, auf Daten und Funktionen zuzugreifen, und stehen im Mittelpunkt vieler Datenskandale und datenschutzrechtlichen Kritiken, mit denen die Plattform konfrontiert wird. APIs sind ein entscheidender Bestandteil der Plattformarchitektur und damit in kulturelle, ökonomische und politische Wechselbeziehungen eingebettet. Plattformen nutzen APIs, um Daten auszutauschen, Zugang zu Hardwarekomponenten wie Kameras oder Speicher zu gewähren, Werbung zu schalten und Werbeanalysen bereitzustellen, Chatbot-Funktionen zu ermöglichen, Funktionen der Künstlichen Intelligenz zu integrieren aber auch um ihre Marktmacht auszubauen. Als Facebook und andere Plattformen wie Twitter/X im Zuge des Facebook-Datenskandals um Cambridge Analytica den Zugang zu ihren APIs restriktiver gestalteten, wurde auch Forscher:innen der API-basierte Zugang zu Plattformen gesperrt. Die ‚APIcalypse‘ (Bruns 2019) läutete das Ende der API-basierten Plattformforschung ein.
    Aber APIs sind auch kommerzielle Produkte, die sich an Entwickler:innen richten, und so kommen Plattformen nicht umhin, zu kommunizieren: Sie stellen ausführliche Dokumentationen zur Verfügung, liefern Best-Practice-Beispiele, erzählen Erfolgsgeschichten und veranstalten Workshops und Konferenzen für Entwickler:innen. Darüber hinaus hat der Datenskandal zu weiteren Öffnungen beigetragen: Als Reaktion wurden mehrere Leaks mit vertraulichen E-Mails, Kalkulationen und internen Präsentationsunterlagen veröffentlicht. In laufenden Gerichtsverfahren und in Kongressanhörungen wurde Facebooks API, die Graph API, zum Gegenstand von Verhandlungen, während Gerichte beantragte Geheimhaltung von Unterlagen aufheben, die Facebook strategisch als „vertraulich“ bezeichnete, um sie so der Öffentlichkeit zugänglich zu machen. Paradoxerweise besteht heute die Herausforderung darin, die Menge und Heterogenität des verfügbaren Materials für die Forschung nutzbar zu machen. Am Beispiel der Facebook Graph API stellt der Beitrag Entwickler:innenportale, Leaks und Gerichtsdokumente als Forschungszugänge zu Plattformen und deren Infrastrukturen vor und diskutiert die methodischen Herausforderungen der Plattformforschung im Spannungsfeld von infrastruktureller Macht und Öffentlichkeit.

    Tatjana Seitz ist wissenschaftliche Mitarbeiterin am SFB 1187 „Medien der Kooperation” und promoviert an der Universität Siegen. Ihr Forschungsschwerpunkt liegt auf der kritischen Erforschung von APIs an der Schnittstelle von ökonomischen, ästhetischen und kritischen Forschungszugängen zu Internetplattformen. Ebenso interessiert sie sich für technisch fundierte, designorientierte und kritische Zugänge zur Untersuchung kommerzieller Software.

    Close reading of evocative objects in the inter-imperial space of digital life writing
    On the example of Tatsiana Zamirovskaya’s digital life writing

    Hanna Horn (University of Greifswald)

    Reading platformised auto:biographies might resemble collecting the fragments of authorial identity, dispersed through time and space. Intersubjective nature of identity can manifest its presence not only, but also through written transcultural evocative objects, meaning objects endowed with both personal and global cultural meaning, capable of moving between different cultural contexts.
    With this paper, I argue, travels of authorial memory and identity are to be localized with the help of such objects’ close reading. This methodology is to be presented on the example of Tatsiana Zamirovskaya’s Facebook writing, and close reading of one-two transcultural evocative objects from life writing of hers.
    Tatsiana Zamirovskaya is a Belarusian writer and journalist; in her fiction texts she works with themes of absence, oblivion, digital immortality and resurrection. Her works include the short story collections ‚Life Without Noise and Pain‘ (2010), ‚Sparrow River‘ (2015), ‚Land of Random Numbers‘ (2019) and the novel ‚Death.net‘ (2021). Apart from Facebook- and LiveJournal-pages, she also posts on her Telegram-channel and Instagram-account.
    In given presentation I aim to trace the difference between objects’ close reading in pre-digital and digital life writing texts. To understand what close reading of transcultural evocative objects online can tell us about travelling memory and identity, as well as about intimate publics / private spaces online, is among the objectives of this paper.

    Hanna Horn is born in Minsk, Belarus, she obtained her specialist degree in literary writing at the Maxim Gorky Literature Institute (Moscow, Russia). At the moment she pursues her PhD degree in the frame of IRTG “Baltic Peripeties. Narratives of Reformations, Revolutions and Catastrophes”, at the University of Greifswald, Germany.


FSP digitale_kultur | 08.11.2024
nach oben