Plattformräte
Die Demokratie plattformfest machen
Wer bestimmt, was wir auf Social-Media-Plattformen sagen dürfen? Wie gehen wir mit Inhalten um, die zwar legal sind, aber dennoch schädlich? Wann sind Löschungen und Verbannungen legitim? Wir müssen unsere Demokratien plattformfest machen und überlegen, wie wir demokratisch mitentscheiden können, was die Regeln auf Facebook, Instagram, Twitter und Co sein sollen. Plattformräte sind dafür ein interessanter und zu diskutierender Ansatz. Die neue von der Friedrich-Naumann-Stiftung in Auftrag gegebene Publikation "Die Demokratie plattformfest machen" analysiert die Herausforderungen und Chancen, die Plattformräte mit sich bringen. Im Interview mit Ann Cathrin Riedel erläutern die beiden Autoren, Dr. Matthias C. Kettemann und Martin Fertmann, die Grundidee hinter der Demokratisierung der Plattformen.
Riedel: Die Diskussion über Social Media Councils bzw. Plattformräte keimt in Deutschland so langsam auf. Insbesondere seit Facebook das eigene „Facebook Oversight Board“ gegründet hat und dieses entschieden hat, dass die Verbannung Donald Trumps von der Plattform auf Basis ihrer Gemeinschaftsstandards aufrechterhalten wird. Eure Studie trägt den Titel „Die Demokratie plattformfest machen“ - können durch Social Media Councils Entscheidungen von Plattformen mehr Legitimität erlangen?
Kettemann/Fertmann: Ja. Im Detail kommt es natürlich darauf an, welche Ziele man mit einer solchen Institution verfolgt. Plattformräte sind kaum geeignet zur Durchsetzung nationalen Rechts. Sie können und sollen bestehende staatliche Rechtsschutzmechanismen nicht ersetzen, sondern nur ergänzen. Als Ergänzung können sie dennoch wertvoll sein, wenn durch sie eine unabhängige Kontrolle in Bereichen hergestellt wird, in denen das nationale Recht keine Vorgaben macht und die Unternehmen bisher allein auf Basis ihrer Nutzungsbedingungen agieren. Je nach Ausgestaltung und Besetzung kann eine solche Institution dann zum Beispiel den wirtschaftlich motivierten Plattformen zusätzliche Verfahrens- oder Begründungsanforderungen entgegenstellen oder sogar eine Art demokratische Legitimität herstellen, indem Nutzerinnen und Nutzer bei der Formulierung oder Anwendung dieser Regeln beteiligt werden.
Taugt das Facebook Oversight Board als Vorbild für allgemeine Plattformräte? Oder sind die in Deutschland bereits etablierten Rundfunkräte ein geeigneteres Vorbild?
Das Facebook Oversight Board ist ein hilfreicher Startpunkt für eine Diskussion darum, wie Plattformräte gestaltet werden können. Es sollte aber nicht als Idealtyp einer solchen Institution missverstanden werden. Es braucht vielmehr einen Wettbewerb um geeignete institutionelle Konzepte. Wir finden, dass bisherige Erfahrungen mit Rundfunkräten und anderen staatsfernen Institutionen in der deutschen Medienregulierung – im Positiven wie Negativen – wertvolle Erkenntnisse für diese Debatte über Plattformräte bereithalten. Schematisch übertragen lassen sich diese bisherigen Konzepte aber wegen ihrer sehr unterschiedlichen Ziele und Anforderungen nicht.
Ihr schreibt davon, dass solche Plattformräte für eine „Verbesserung der Governancesysteme von Unternehmen“ sorgen könnten. Was bedeutet das?
Plattformräte können dazu beitragen, dass die privaten Governancesysteme – also die Nutzungsbedingungen, die Durchsetzungspraktiken und Algorithmen, die Überprüfungs- und Beschwerdeverfahren – verbessert werden. Dafür müssen sie Anforderungen formulieren, die über den Einzelfall hinausgehen und Impulse für deren Umsetzung geben, indem sie einerseits Druck ausüben, auch durch öffentliche Kritik, aber zugleich eine konstruktive Debatte mit den Unternehmen über derartige Verbesserungen in Gang halten. Im Trump-Fall hat das Board etwa Facebook ins Pflichtenheft geschrieben, besser zu kommunizieren, wann Accounts gelöscht werden, welche Sanktionsmöglichkeiten bestehen – und vor allem wie Facebook umgeht mit problematischen Postings von Politikerinnen und Politikern. Gerade in den Empfehlungen des Panels liegt eine gewisse Macht. Die Expertinnen und Experten können wichtige Wegmarken setzen. So hat das Board im Trump-Fall Facebook aufgefordert, eine umfassende Überprüfung des möglichen Beitrags von Facebook zur Popularisierung der Wahlbetrugslüge und den Ereignissen des 6. Januar durchzuführen. Genau das hatte die Zivilgesellschaft gefordert. Jetzt wird Facebook über die Designentscheidungen nachdenken müssen, die es etwa der QAnon-Bewegungen ermöglicht haben, Facebook zu seinen Zwecken zu missbrauchen.
Umgekehrt liegt ein Risiko von Plattformräten darin, dass sie die bestehenden Machtstrukturen nicht verändern, sondern nur verschleiern. Diese Gefahr muss durch ausreichende Informationsrechte ausgeräumt werden, sodass Plattformräte und Dritte den Eintritt oder das Ausbleiben systemischer Verbesserungen überprüfen können.
Bietet das deutsche NetzDG oder der europäische Digital Service Act eine rechtliche Grundlage, um solche Plattformräte zu installieren?
Eine staatliche Pflicht, diese einzurichten besteht nicht. Andererseits gibt es Einrichtungen wie Datenschutzbehörden und Landesmedienanstalten, die gewisse der Funktionen von möglichen Plattformräten ausüben. Auch die Digital Service Coordinators, die im DSA angedacht werden, sind hoch interessante Einrichtungen, über die man noch viel diskutieren und nachdenken muss.
Häufig werden Konflikte durch Hassrede und Desinformationen auf Social-Media-Plattformen befeuert und verstärkt. Ein besonders extremes Beispiel ist etwa der Genozid an den Rohingya in Myanmar. Seht Ihr Potentiale, wie Plattformräte dazu verhelfen können, dass Menschenrechte durchgesetzt werden können, wenn der Staat dies nicht leisten kann oder will?
Allgemein kommt in solchen Kontexten den Abhilfe- und Anhörungsmöglichkeiten der Unternehmen eine besonders große Bedeutung zu. Aus Myanmar hat Facebook dazugelernt und geht jetzt weit effektiver gegen Hassrede vor. Plattformräte können jedenfalls dazu beitragen, diese effektiver und teilhabeorientierter zu gestalten. Extremfälle, in denen Nationalstaaten unter Verletzung ihrer menschenrechtlichen Verpflichtungen Plattformen instrumentalisieren (etwa zur Herausgabe von Nutzerinnen- und Nutzerdaten oder der Entfernung bestimmter Meinungen) stellen eine Sonderfrage dar: Hier könnte die Vorlage an einen Plattformrat, der öffentlichkeitswirksam die Menschenrechtswidrigkeit der staatlichen Aufforderung anprangert, den Unternehmen das Ignorieren der Aufforderung erleichtern. Solche Möglichkeiten stehen aber eher am Rand der Plattformrätediskussion, die sich vor allem um die Begrenzung der Diskursmacht von Plattformunternehmen dreht.