leibniz

Als das Internet noch »Neuland« war, gingen Rechtsextreme schon in den Sozialen Medien auf Stimmenfang. Wir reden mit Gregor Wiedemann und Jan Rau über Hatespeech, schweigende Mehrheiten und über die Frage, wie man sich mit Rechtsextremen im Netz auseinanderzusetzen hat. Die Medienwissenschaftler sind für das Media Research Methods Lab (MRML) am Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut tätig.

Die KATZE ist das inoffizielle Maskottchen des Internets. Auf dem Bild über diesem Artikel sehen wir eine Katze mit Hitlerbart – auch das ist Internetkultur. Den Blog »Cats That Look Like Hitler« gibt es seit 2006. Ist das geschmacklos? Lustig? Darüber wird im Netz viel debattiert.

LEIBNIZ In den vergangenen Wochen gingen Millionen gegen den Rechtruck im Land auf die Straße. In den Kommentarspalten auf Facebook dominiert aber bisweilen der Hass. Wie kann das sein?

RAU Aus Mediennutzungsstudien wissen wir, dass die aktive Nutzung von Social Media, also Liken, Sharen, aber eben auch Kommentieren, alles andere als gleichverteilt in der Bevölkerung ist. Besonders tun sich hier die sogenannten »Heavy User« hervor, die nicht nur sehr aktiv in den Sozialen Medien, sondern – im Durchschnitt – auch eher radikaler in ihren Ansichten sind – so kommt es zu diesem Bild.

WIEDEMANN Wir haben in den vergangenen zwei Jahren Kommentare zu Posts von Politiker*innen untersucht. Dabei konnten wir eine deutliche Zunahme sogenannter Toxizität in der Sprache feststellen, also Schimpfworte, Verunglimpfungen, persönliche Angriffe messen. Das betrifft besonders Politiker*innen der Grünen, aber interessanterweise lässt sich auch in Antworten auf die CDU ein sehr starker Anstieg dieser toxischen Sprache beobachten.

Gibt es die »schweigende Mehrheit« also auch im Netz?

WIEDEMANN Wenn man davon ausgeht, dass die Diskussionen im Internet die Diskussionen in der Offlinewelt in irgendeiner Form abbilden sollten, kann man diese Frage natürlich bejahen. Dann ist die gemäßigte Zivilgesellschaft in den Kommentarspalten nur in rudimentärer Weise vertreten. Aber ich halte es für falsch, anzunehmen, dass wir zu einem Zustand gelangen könnten, in dem die Zivilgesellschaft online auf eine repräsentative Art und Weise in einen fairen Austausch miteinander tritt.

Warum?

WIEDEMANN Das liegt einerseits an sozialpsychologischen Faktoren und andererseits an den Einflüssen der Plattformen: Die Algorithmen sorgen dafür, dass emotionalisierte und extreme Inhalte viel mehr Aufmerksamkeit bekommen als eine nüchterne, sachliche Auseinandersetzung.

Sind die Plattformen hier mehr gefordert?

RAU Es ist natürlich nicht so, dass es Rechtsextremismus gibt, weil es Facebook gibt. Das sind wesentlich größere Problemstellungen, die da sichtbar werden. Aber dennoch: Wenn wir den digitalen Raum als Arena begreifen, ist die Arena nicht besonders fair gebaut, eben weil es auch noch diese künstliche Verstärkung von besonders emotionalisierten, konfliktorientierten Inhalten gibt.

Annoyed Picard-Meme mit dem Text "Wir dürfen die Arena nicht den Rechten überlassen""

WIEDEMANN Ergänzend dazu würde ich noch den Ball mehr an die etablierte Politik spielen, die eben bestimmte Entwicklungen häufig zu spät erkennt und entsprechend zu spät bespielt. Nehmen wir Tiktok: Wir wissen, aus rein quantitativen Erhebungen, dass die AfD hier ein Potenzial entfaltet, das mindestens so groß ist wie das der anderen Parteien zusammen. Die AfD führt hier auch auf sehr kleinen Ebenen, etwa bei Landratswahlen, teilweise sehr erfolgreich Wahlkampf. Darauf reagieren die anderen Parteien nur schwerfällig. Die Arena wird den Rechten überlassen.

RAU Diese Entwicklung ist übrigens alles andere als neu: Noch 2014 hatte die NPD bei Facebook mehr Follower als alle anderen damals im Bundestag vertretenen demokratischen Parteien – genauso wie die AfD, die auch schon damals extrem erfolgreich auf der Plattform war. Aber das wurde nicht ernstgenommen. Es ist frustrierend mit anzusehen, dass wir als demokratische Akteur*innen anscheinend immer noch die gleichen Fehler machen.

Ist das die Strategie der AfD?

WIEDEMANN Social Media ermöglicht es, unabhängig von den üblichen Gatekeepern eigene Inhalte und Botschaften senden zu können, und das auf eine Art und Weise, die sich von redaktionellen Standards journalistischer Arbeit weitgehend entfernt hat. Zum Beispiel emotional und personalisiert Menschen ansprechen: Das ist etwas, was die AfD sehr früh gelernt hat und in ihren Social Media-Posts konsequent umsetzt – etwa mit kurzen Textschnipseln in Sharepics, die man dann auch leicht in WhatsApp oder in anderen Messengern weiterverteilen kann. Seit Jahren haben sie eine Bildsprache entwickelt, bei der sie sehr populistische und vor allem auch bedrohliche Botschaften mit eingängigen Bildbotschaften kombinieren.

Zum Beispiel?

WIEDEMANN Es werden beispielsweise migrationsfeindliche Parolen mit rassistischen Ressentiments kombiniert, darauf sieht man dann etwa einen Schwarzen Mann mit einem Messer in der Hand. Und das erzeugt natürlich sofort eine bestimmte Emotion und Angstreaktion bei den Betrachter*innen. Insbesondere dann, wenn sie dafür sowieso schon empfänglich sind. Das wird durch die Partei sehr systematisch eingesetzt.

Grandma finds the internet-Meme mit dem Text "Die Alten lesen Zeitung um sich zu informieren, die Jungen benutzen die Sozialen Medien"

Wie geht Radikalisierung vonstatten, welche Strategien verfolgen Rechtsextremisten on- und offline – und kann der millionenfache Gegenprotest unsere Demokratie schützen? Weitere Antworten von Leibniz-Forschenden auf diese Fragen finden Sie im Dossier Rechtsextremismus.

Welche Altersgruppen wählen rechts?

WIEDEMANN Zuletzt hat sich ein Wandel vollzogen. Ursprünglich hatte die AfD den größten Zuspruch bei der Generation 40 Plus. Aktuelleren Umfragen zufolge machen nun jedoch gerade die sehr jungen Wähler*innen bevorzugt ihr Kreuz bei der AfD. Das hat auch etwas mit Sozialen Medien zu tun.

Inwiefern?

WIEDEMANN Wir sehen, dass sich die Art und Weise, wie sich junge Menschen über die Geschehnisse in der Welt informieren, drastisch davon unterscheidet, wie ältere Generationen das tun. Die Alten lesen Zeitung oder gucken Tagesschau, um an Informationen zu gelangen. Bei den Jungen ist das anders: Man informiert sich über Soziale Medien und nimmt diese Informationen als Nachrichten wahr. Und in diesen Social-Media-Datenstream werden völlig selbstverständlich auch Inhalte von AfD und extremen Rechten eingespielt. Die Folge ist eine ganz starke Normalisierung von dieser Partei und ihren Positionen, die in den großen Massenmedien so überhaupt nicht stattfindet. Und das schlägt sich in den Umfragen nieder. Gleichzeitig kann so der Eindruck entstehen, die etablierten Medien würden die Breite der Meinungen nicht adäquat abbilden, womöglich gar aufgrund politischer Steuerung – ein Narrativ, dass die AfD ebenfalls beständig füttert.

Versagt hier der Bildungssektor? Muss es eine bessere Medienbildung an Schulen geben?

RAU Zunächst einmal ist die Aufgabe größer, als dass Schule oder Bildungssystem sie allein stemmen könnten. Schulen gehören auch dazu, klar, aber es bleibt eben eine gesamtgesellschaftliche Aufgabe. Politische Bildung ist auch ein großer Faktor, es braucht Angebote wie die Bundeszentrale für politische Bildung, und ihre Finanzierung muss gesichert bleiben. Das reicht aber nicht; ihre Inhalte müssen es auch auf die Plattformen schaffen – um ein Gegengewicht zu bilden.

WIEDEMANN Das Problem ist, dass man eben allein mit Bildung und Aufklärung diesen Wirkmechanismen des Social Media-Konsums politischer Inhalte nicht beikommen kann: Wenn man bestimmten Aussagen mit Beständigkeit ausgesetzt ist, setzt sich das irgendwann fest – ganz unabhängig davon, ob man schonmal in der Schule über Medienkompetenz gesprochen hat oder nicht. Und deswegen ist es besonders wichtig, zu kontextualisieren, Gegeninformationen leicht zugänglich zu machen und eben auch die Verbreitung von besonders krassen Falschinformationen durch Plattformen einzuschränken.

Ist der Rechtsruck in Deutschland denn eine Konsequenz aus Fehlinformationen aus den Sozialen Medien?

RAU Nein, zumindest ist es nicht ganz so einfach. Wie gesagt: Es ist nicht so, dass Facebook existiert und wir deswegen ein Problem mit Rechtsextremismus in Deutschland haben. Wir haben bestimmte politische Transformationen, Entwicklungen, Krisen, die dafür sorgen, dass eine Wut gegen das System, gegen das »Establishment« heranwächst. Dass plötzlich rassistische Positionen als bürgerliche durchgehen. Sich dem entgegenzustellen, ist eine Gesellschaftsaufgabe. Wenn wir über Rechtsextremismus im digitalen Raum sprechen, werden wir das Problem nicht in den Griff bekommen, indem wir Facebook regulieren. Das ist zwar ein zentraler – und sehr wichtiger – Baustein, es müssen jedoch auf die zugrunde liegenden Gesellschaftlichen Konflikte und Krisen bearbeitet werden.

Reden wir über Bots. Oftmals liest man, dass die Rechten Bots einsetzen, um Traffic, Likes und Content zu generieren. Ist da was dran?

WIEDEMANN Bis vor kurzem war es jedenfalls nicht so, dass die Fähigkeiten der Bots so ausgebaut waren, dass sie Hatespeech von alleine verfassen konnten. Dafür sind sie nicht kreativ genug. Eine algorithmische Verstärkung aber, etwa durch Likes, Shares und Retweets, ist dagegen auffällig. Das ist auch etwas, was für extrem rechte Inhalte messbar stärker passiert. Wir können in unseren Daten zum Beispiel sehen, dass in den Posts der AfD das Verhältnis von Likes und Retweets zu Views, also der Anzahl an Nutzer*innen, die einen Post gesehen haben, ganz anders ist als bei anderen Parteien. Diese extremen Abweichungen liefern Hinweise auf Manipulation. Ob diese Manipulation aber durch besonders engagierte AfD-Unterstützer*innen zustande kommt, oder ob es sich um gekaufte Bots handelt, können wir nicht sagen.

Disaster Girl-Meme mit dem Text "Hassredner*innen haben kein Interesse an einem Diskurs"

Wie kann man als medienschaffende Person auf Hasskommentare im Netz reagieren? Zur Gegenrede ansetzen, ignorieren nach dem Motto »Don’t feed the trolls«? Oder: gänzlich Löschen?

RAU Das kommt sehr auf den Kontext an. Hatespeech kann dafür sorgen, dass sich betroffene Gruppen nicht wohlfühlen. Gerade bei Posts mit hoher Sichtbarkeit, die viele Nutzer*innengruppen erreichen, kann es Sinn machen, sehr strikte Regeln anzuwenden. Denn es ist Strategie der radikalen Rechten, bestimmte Gruppen aus Diskursen herauszudrängen und dieser Strategie sollten wir entgegentreten. Allerdings gilt auch: Dass es Fringe-Bereiche im Internet gibt, in denen weniger Moderation stattfindet, ist auch okay; zumindest bis zu einem gewissen Grad. Gegenöffentlichkeiten erfüllen in pluralistischen Gesellschaften einen Zweck, das müssen wir aushalten. Es ist wichtig, dass wir sie haben.

Wie redet man im Netz also mit Rechtsextremisten?

WIEDEMANN Man muss sich vergegenwärtigen, dass Hass-Redner*innen in der Regel nicht an einem deliberativen Diskurs hin zum bestmöglichen rationalen Ergebnis interessiert sind. Das färbt sich in gewisser Hinsicht auch auf die Gegenseite ab. Auf Gegenrede kommen auch häufig bloß Reaktionen wie simple Zurückweisung einer Kritik als Rassismus- oder Nazi-Keule oder Beleidigungen des Gegenübers; ein rationaler Austausch von Argumenten kann so nur selten stattfinden. Und das spricht in der Tendenz tatsächlich eher dafür, besonders radikale Botschaften oder besonders radikale Nutzerinnen von der Debatte auszuschließen, weil man die Diskussion mit ihnen nicht führen oder gewinnen kann. Gleichzeitig bleibt Gegenrede ungeheuer wichtig, um Mitlesenden zu signalisieren, dass extrem rechte Positionen keinen Anspruch auf allgemeine Gültigkeit erheben können.

An die Stelle des Diskurses tritt reine Provokation?

RAU Zunächst einmal muss Provokation auf Social Media per se nichts Schlechtes sein. Die Plattformen haben ja nicht nur Rechtsradikale nach oben gespült, sondern auch andere Protestwegung wie beispielsweise die Klimabewegung konnten substanziell von digitalen Medien profitieren. Die wäre niemals so erfolgreich geworden, wenn sie nicht auch provoziert hätte. Die waren nicht immer nett, aber: Nach der Provokation kam dann eben die Debatte. Worüber man nachdenken könnte: Warum baut Facebook eigentlich keinen Algorithmus, der, anhand von Sprachcharakteristika erkennt, wann konstruktiver Austausch stattfindet, und diesen Austausch mit Sichtbarkeit belohnt? Ähnliche Mechanismen hat beispielsweise Taiwan in vTaiwan integriert, ein digitales Tool zur Einbeziehung der Bürger*innen in Gesetzgebungsprozesse.

Oft sperren Seitenbetreiber, etwa die Onlineauftritte der öffentlich-rechtlichen Medien, Kommentarspalten, wenn Hasskommentare überhandnehmen. Ist das Zensur?

WIEDEMANN Rechte inszenieren sich für alles Mögliche als Opfer. Das ist ein immer wiederkehrendes Narrativ. Und das ist gefährlich. Man ist bei der Verteidigung der Demokratie nicht gut darin beraten, auf dieses Narrativ hereinzufallen und den Leuten entgegenzukommen. Wenn ein öffentlich-rechtlicher Sender in seinen Kommentarspalten nicht zur Plattform von Hass und Verschwörungstheorien werden will, dann ist es selbstverständlich eine gute Entscheidung, entweder eine straffe Moderation vorzunehmen oder, wenn die Moderation wegen fehlender Kapazitäten nicht geleistet werden kann, eben auf die Kommentarspalten zu verzichten. Da würde ich auch jedes Gejammer über angebliche Zensur ignorieren.

Insanity Wolf-Meme mit dem Text "Es ist beängstigend, wie stark Anschläge von Internet-Kulturen geprägt waren"

Wie groß ist die Gefahr, dass Hass im Netz umschlägt in reale körperliche Gewalt?

RAU Es ist beängstigend, wie stark etwa die Anschläge in Halle und Christchurch geprägt waren von den jeweiligen Internetkulturen, in denen sich die Täter bewegten. Etwa in den Codes, die die Täter benutzt haben: die »Gamifizierung« des Attentats im digitalen Livestream beispielsweise, oder der Verwendung spezifischer Musik und Handzeichen. Diese Onlinekulturen haben in erschreckender Weise den Ablauf und die Zielrichtung der Anschläge mitbeeinflusst.

WIEDEMANN Aber auch auf niedrigeren Eskalationsstufen schlägt Hass im Netz in Gewalt um. Ich glaube, das ist für Betroffene auch die größere Gefahr: dass sich durch Hatespeech zum Beispiel eine Alltagsdiskriminierung und eine Ausübung von Gewalttaten im Alltag normalisiert. Dass rechte Diskurse salonfähig werden. Dass rechtsextreme Parteien mehrheitsfähig werden und dann eventuell vielleicht sogar in Regierungsverantwortung kommen. Das alles halte ich für eine viel größere Bedrohung für diskriminierte Gruppen.

Olaf Scholz hat im Spiegel neulich gesagt: »Wir müssen endlich im großen Stil abschieben«. Die Bezahlkarte für Geflüchtete wird in den meisten Bundesländern eingeführt oder diskutiert. Sind rechte Diskurse bereits salonfähig?

WIEDEMANN Beispiele wie diese tragen sprachlich zumindest nicht zur Deeskalation bei. Und die Wissenschaft diskutiert ja auch kontrovers, ob es für die demokratischen Parteien wirklich eine kluge Strategie ist, rechte Narrative und Positionen zu übernehmen, um Wählerinnen und Wähler zurückzugewinnen. Was man aber sicherlich sagen kann, ist, dass Aussagen wie die obige von Olaf Scholz für eine friedliche und tolerante Gesellschaft nicht besonders zuträglich sind.

Sie sind von Hass im Netz betroffen? Hier finden Sie Hilfe:

•Die gemeinnützige Organisation HateAid setzt sich für Menschenrechte im digitalen Raum ein und engagiert sich gegen digitale Gewalt und ihre Folgen.

•Bei hatefree wird rechtliche Beratung bei Hatespeech und anderen Formn der digitalen Gewalt angeboten. 

Scicomm-Support richtet sich vor allem an Wissenschaftler*innen, die von digitaler Gewalt betroffen sind.

•Weitere Hilfssangebote bei Hass im Netz finden Sie bei Das Nettz oder in den Broschüren der Neuen Deutschen Medienmacher*innen und der Amadeu-Antonio-Stiftung.

Vielleicht auch interessant?