leibniz

Hate Speech, Fake News, Cybermobbing. Seit Jahren wird diskutiert, ob und wie Soziale Netzwerke ihrer Verantwortung gerechter werden können. Nun hat Facebook ein Kontrollgremium eingerichtet. In der vergangenen Woche entschied das sogenannte Oversight Board, dass Donald Trumps Account weiterhin gesperrt bleibt – und sorgte damit für weltweite Schlagzeilen. Doch ist das Oversight Board wirklich die unabhängige Instanz, die Mark Zuckerberg verspricht – oder reine Imagepolitur? Wir haben Matthias C. Kettemann vom Leibniz-Institut für Medienforschung | Hans-Bredow-Institut und Jillian C. York von Electronic Frontier Foundation gefragt. Den Anfang hat Kettemann gemacht. Nun schreibt York: Dem Oversight Board fehlt die nötige Wirkkraft.

Contra

Das Pro von MATTHIAS C. KETTEMANN finden Sie hier.

Nachdem zivilgesellschaftliche Gruppen seit Langem auf mehr Transparenz, Rechenschaftspflicht und Kontrolle geposteter Inhalte drängen, hat Facebook im vergangenen Jahr sein Oversight Board ins Leben gerufen. Das Gremium – eine Gruppe aus 20 angeblich unabhängigen Jurist*innen, Anwält*innen und Expert*innen für Meinungsfreiheit – hat die Aufgabe, in kontroversen Fällen zu urteilen, ob das Unternehmen Inhalte zurecht entfernt hat oder nicht.

Um über gepostete Inhalte zu entscheiden, beschäftigt Facebook menschliche Moderatoren, typischerweise durch Drittfirmen mit Sitz in Ländern wie den Philippinen. Außerdem setzt das Unternehmen zunehmend automatisierte Technologien ein. Beide Herangehensweisen sind sehr fehleranfällig, externe Studien wissenschaftlicher Einrichtungen legen nahe, dass die Fehlerquote bei etwa zehn Prozent liegt. Diese Fehler haben vor allem negative Auswirkungen auf marginalisierte Gruppierungen, auf Gemeinschaften also, die oftmals auf Soziale Medien angewiesen sind, um sich in der Welt Gehör zu verschaffen – etwa, weil keine freien Medien oder andere Kommunikationskanäle bestehen.

Das Oversight Board ist mit Sicherheit ein einzigartiges Experiment in Sachen Governance: Während Twitter mit seinem Vertrauens- und Sicherheitsbeirat Nichtregierungsorganisationen einbindet und Google seit langem Experten in Workshops und Konferenzen zusammenbringt, hat Facebook nun ein neues System geschaffen. Darin können Expert*innen tatsächlich zu verbindlichen Entscheidungen beitragen, die wiederum die Politik beeinflussen könnten. Dafür sollte das Unternehmen gelobt werden.

Facebooks Board ist nicht im Entferntesten repräsentativ für die Menschen, die das soziale Netzwerk tagtäglich nutzen.

JILLIAN C. YORK

Doch leider gibt es viele Hinweise darauf, dass Facebook – dessen Führungskräfte das Oversight Board und seine Charta nach nicht mal zehn Beratungsrunden mit einer Vielzahl von Interessenvertreter*innen aus aller Welt, darunter Anwälte, Aktivisten bis hin zu Journalisten, gegründet haben (Disclaimer: an einer davon habe ich teilgenommen) – die Karten so gelegt hat, dass keine zu radikalen Ergebnisse erwartet werden.

Die größte Sorge ist, ob das Oversight Board wirklich unabhängig von Facebook ist. Obwohl es sich um eine eigenständige juristische Person handelt, wurde es vollständig von einer Treuhandinstitution des Unternehmens finanziert. Die Auswahl der Co-Vorsitzenden des Boards erfolgte durch Facebook. Und diese Co-Vorsitzenden wiederum haben mit Facebook zusammengearbeitet, um die restlichen Mitglieder des Boards zu bestimmen.

Das Ergebnis? Facebooks Board ist nicht im Entferntesten repräsentativ für die Menschen, die das soziale Netzwerk tagtäglich nutzen. Während nordamerikanische Nutzer*innen zwischen 10 und 15 Prozent der Facebook-Nutzenden ausmachen, stammen 25 Prozent des 20-Personen-Boards aus den USA. Die meisten User*innen hat Facebook in Indien, aber nur ein Vorstandsmitglied kommt von dort. Dies ist nicht überraschend, sondern symptomatisch: Von der Sprachpolitik bis zu den Marketingstrategien war das Unternehmen immer auf die USA ausgerichtet.

Während die Richtlinie es erlaubt, Männer oben ohne darzustellen, schränkt sie die Darstellung von Frauen ein.

Tatsächlich kommt eine wachsende Zahl von Facebook-Nutzern aus dem Globalen Süden, mehr als die Hälfte der Vorstandsmitglieder des Oversight Boards dagegen stammt aus Ländern des globalen Nordens oder lebt dort. Das ist nicht nur mit Blick auf die Repräsentation von Bedeutung, sondern auch, weil viele der dokumentierten Fehler wichtige Inhalte betreffen, die in Regionen der Welt gepostet wurden, die bei Facebook unterrepräsentiert sind.

Nehmen wir zum Beispiel Inhalte, die von Facebooks internen Systemen als Terrorismus eingestuft werden. Die Richtlinie, die bestimmt, was Terrorismus ist oder nicht, ist bereits verzerrt, da sie auf der politisierten Liste ausländischer Terrororganisationen des US-Außenministeriums basiert, aber die weltweit wachsende Zahl von Rechtsextremisten nicht miteinbezieht. Es werden Algorithmen eingesetzt, um so viele terroristische Inhalte wie möglich zu identifizieren, doch immer wieder entfernen sie dabei auch Posts, die sich gegen terroristische Inhalte richten, die Kriegsverbrechen aus Ländern wie Syrien dokumentieren und sogar Satire. Diese Praxis der Moderation betrifft einige der am stärksten gefährdeten Gemeinschaften der Welt. Die Thematik erfordert weitaus mehr Nuancen und Aufmerksamkeit als ihr derzeit zuteil wird.

Um ein weiteres Beispiel zu nennen: Seit seinen Anfängen schränkt Facebook Darstellungen von Nacktheit stark ein, insbesondere die Darstellung der Brüste von Frauen wurde verboten. Natürlich wirkt sich diese Richtlinie auf Frauen in verschiedenen Kulturen aus, aber nicht gleichermaßen: Unter den am stärksten betroffenen sind Gruppen indigener Frauen sowie Transgender- und nicht-binäre Personen, die über dies beide nicht im Vorstand vertreten sind. Diese Gruppen sind dabei auf verschiedene Weise betroffen. Einer Gruppe australischer Aborigines etwa, die sich im Zuge einer Protestaktion oben ohne fotografierte, wurde mitgeteilt, dass ihre Bilder gegen die Anstandsnormen des sozialen Netzwerks verstießen. Während die Richtlinie es also erlaubt, Männer oben ohne darzustellen, schränkt sie die Darstellung von Frauen ein. Gleichzeitig betrifft diese Einschränkung auch Transgender- sowie nicht-binäre Personen, indem sie auf eine binäre Version des Geschlechts drängt, das mit einem modernen Verständnis von Geschlecht schlicht nicht mehr übereinstimmt.

Das Oversight Board ist ein noch laufendes Experiment – und nicht der >Oberste Gerichtshof<, für den Mark Zuckerberg es hält.

Fehler in diesen Kategorien sind nicht nur wahrscheinlicher, weil es an Fachwissen über lokale Gegebenheiten innerhalb des Unternehmens mangelt, sondern auch, weil betroffene Gruppen und Einzelpersonen im Globalen Süden weniger Möglichkeiten haben, Facebooks Richtlinienteams zur Verantwortung zu ziehen oder sich in den Medien Gehör zu verschaffen, wenn ihre Äußerungen fälschlicherweise entfernt werden. Bestehende globale Ungleichheiten werden so verstetigt.

Ein weiteres Hauptproblem des neuen Aufsichtsgremiums liegt in der Wirkkraft seiner Entscheidungsfindung – oder eher in ihrer Wirkungslosigkeit. Bei der Erstellung der Charta hat Facebook versucht, das Konzept des Gerichts nachzubilden – allerdings ohne die Kontrollmechanismen und demokratische Legitimation der Richter*innen. Es fehlt zudem die Vorrangstellung der Rechtsprechung, was im Endeffekt bedeutet, dass jede Entscheidung des Boards, egal wie zutreffend sie auch sein mag, kaum oder gar keinen Einfluss darauf hat, ob ähnliche Inhalte von Facebook zugelassen werden.

Letztendlich sollte das Oversight Board als das gesehen werden, was es ist: ein noch laufendes Experiment – und nicht als der Oberste Gerichtshof, für den Facebooks Gründer und CEO Mark Zuckerberg es hält. Es besteht die Möglichkeit, dass sich das Board irgendwann in ein mächtigeres Gremium verwandelt, das einem echten Gericht nahekommt und die Politik von Facebook beeinflussen kann; öffentliche Äußerungen einiger Vorstandsmitglieder, etwa des ehemaligen Herausgebers der britischen Zeitung Guardian Alan Rusbridger, deuten darauf hin, dass dieser Wunsch besteht. Und es besteht sicherlich auch die Möglichkeit, zufriedenstellende Ergebnisse zu erzielen, insbesondere solche, die Zuckerbergs persönlichen Auffassungen und Werten widersprechen, die in den labyrinthhaften Grundsatzdokumenten des Unternehmens allgegenwärtig sind.

In der Zwischenzeit sollten wir das Board genau beobachten, seine Entscheidungen sollten unabhängig analysiert werden. Das darf jedoch nicht ausschließen, dass bessere Ideen entstehen könnten, die oft aus der globalen Zivilgesellschaft kommen. Social Media-Plattformen, einschließlich oder viel eher insbesondere Facebook, wären gut beraten, sich intensiver mit internationalen Expert*innen auf dem Gebiet einzulassen, statt sich auf der Existenz des Oversight Boards auszuruhen.

JILLIAN C. YORK ist Direktorin für Internationale Meinungsfreiheit bei der Electronic Frontier Foundation.

Medien · Pro & Contra · Verantwortung · HBI

Vielleicht auch interessant?