Warum Hate speech unsere Demokratie bedroht und was dagegen getan werden sollte
Diese Möglichkeiten sind erst einmal als sehr positiv zu sehen und können zu mehr Vielfalt und Meinungsfreiheit im Netz führen. Diese Freiheit wird jedoch auch ausgenutzt von Menschen, die Desinformationen, Beleidigungen menschenfeindliche Äußerungen vor einem großen Publikum kundtun möchten. Geahndet und blockiert werden können nur Äußerungen, die von Betreibern, anderen NutzerInnen, staatlichen Institutionen oder Initiativen gemeldt werden, weil diese gegen nationalstaatlich geltendes Recht oder die AGBs verstoßen.
Hate speech ist jedoch nicht nur für die Betroffenen selbst bedrohlich, sondern führt auch zu einer nachhaltigen Beeinträchtigung der Debattenkultur im Netz. Wenn nur noch die Meinung derer wahrgenommen wird, die sich am lautesten und am brutalsten äußern und sich gleichzeitig Betroffene von Hate speech und Angehörige von marginalisierten Gruppen ganz aus der öffentlichen Debatte zurückziehen, bedroht das unsere Demokratie und somit die Freiheit aller. Was die Diskussion über Hetze im Netz und geeignete Gegenstrategien noch zusätzlich erschwert sind die schillernde Verwendung des Begriffes Hate speech und die fehlende Abgrenzung zu anderen Phänomenen, wie beispielweise Cybermobbing und Trollen.
Was genau verbirgt sich hinter Hate speech?
Der Begriff Hate speech kommt aus dem US-Amerikanischen und hat sich in Deutschland in der Debatte gegenüber dem deutschen Gegenbegriff der Hassrede durchgesetzt. Es ist immer dann von Hate speech die Rede, wenn die Äußerungen einer Person oder eine Gruppe von Personen gruppenbezogene Menschenfeindlichkeit oder Volksverhetzung beinhalten. Durch das Fehlen eines direkten Gegenübers und direkter Konsequenzen wird im Netz oftmals besonders brutal gegen andere Menschen gehetzt.
Von Hate speech betroffene Gruppen sind gegenwärtig u.a. Juden, Muslime, Sinti und Roma, Menschen ohne Arbeit, Feministinnen, Homosexuelle und Transmenschen, Menschen mit Behinderungen und Flüchtlinge. Gegen wen oder was gehetzt wird, ist davon abhängig, welche Gruppierungen in einem Nationalstaat – oder durch das Internet zunehmend international – kollektiv abgewertet werden.
Nicht alle Äußerungen sind direkt als Hetze erkennbar, da diese in unterschiedlichsten Formen auftreten kann; von explizit aggressiven Kommentaren und Aufrufen zu gemeinsamen Aktionen bis hin zu impliziter Hetze, die als humorvolle Äußerung getarnt ist. Ein aktuelles Beispiel für explizite Hassrede sind die sexistischen Äußerungen gegenüber Computerspielerinnen unter dem Hashtag Gamergate. Zielscheibe waren hier Feministinnen, die auf sexistische Inhalte von Computerspielen aufmerksam machen wollten. Implizite Hassrede kann sich beispielsweise in der Normalisierung von bestehenden Diskriminierungen ausdrücken, z.B. wenn gravierende Unterschiede in der Entlohnung von Männern und Frauen in den gleichen beruflichen Positionen und mit gleicher Qualifikation auf „natürliche geschlechterspezifische Unterschiede“ zurückgeführt werden.
Häufig wird die Gefährlichkeit von Hate speech mit dem Verweis abgetan, dass es sich hierbei nur um Worte, nicht aber um Taten handeln würde – auch dann, wenn explizit ein Handlungszwang konstruiert wird, der zum gemeinsamen Agieren aufruft. Hate speech kommt bislang nicht als Tatbestand im Strafgesetzbuch vor. Wenn Hater verurteilt werden, dann wegen Straftaten gegen die öffentliche Ordnung, also Volkverletzung (§ 130a StGB) oder Beleidigung (§ 185 StGB), wegen Gründung und Zugehörigkeit zu verfassungswidrigen Organisationen (§86 und §86a StGB), wegen der Anleitung zu Straftaten (§ 130a StGB) und wegen Gewaltdarstellungen und Aufstachelung zum Rassenhass (§ 131 StGB).
Wie kann Hate speech von anderen Phänomenen abgegrenzt werden?
Es ist gar nicht so einfach, Hate speech, Cybermobbing und Trollen voneinander abzugrenzen. Während sich Hate speech auf Gruppen bezieht und deren Herabwürdigung und Diskriminierung zum Ziel hat, ist die Zielscheibe von Cybermobbing eine bestimmte Person, die von einem Täter/einer Täterin oder einer Gruppe von TäterInnen über einen längeren Zeitraum beleidigt, herabgewürdigt, von einer Gruppe ausgeschlossen oder der mit physischer Gewalt gedroht wird. Dahingegen zielen Trolle auf das Stören von Diskussionen im Internet ab und haben hierbei weder die Schädigung einzelner Personen noch Gruppen im Fokus. Weder bei Hatern noch bei Trollen gibt es eine Aussage darüber, in welchem Zeitraum die beschriebenen Handlungen beobachtbar sein müssen, um von Hate speech oder Trollen zu sprechen.
In welchen Formen Cybermobbing auftritt, welche Auswirkungen es für Opfer hat und welche Funktionen für TäterInnen, soll an dieser Stelle nicht weiter ausgeführt, kann ausführlich in der Kolumne „Auch digital ist brutal“ nachgelesen werden..
Welchen Nutzen hat Hate speech für Hater?
Um zu verstehen, was Hater dazu bewegt im Internet gegen marginalisierte Gruppen zu hetzen, wird darüber diskutiert welchen Nutzen sie hieraus ziehen können. Motivationale Aspekte können u.a. die durch Hate speech gewonnen Sympathien und die erreichte Anerkennung durch andere NutzerInnen sein. Diese können sich zum Beispiel dadurch ausdrücken, dass Hasskommentare bei Facebook geliked oder geteilt werden. Das hat wiederrum zur Folge, dass sich die Hetze viral verbreitet und somit von vielen Menschen wahrgenommen wird. Hierdurch erhöht sich die Aufmerksamkeit auf Themen und auf die Person des Haters. Diesen persönlichen und strategischen Vorteil nutzen unter anderem Rechtsextremisten dafür, in sozialen Netzwerken propagandistische Inhalte zu verbreiten, um neue InteressentInnen für gemeinsame Kampagnen oder Aktionen zu mobilisieren. Weitere Motive und Funktionen von Hate speech können in der Hater-Typologie von Yasmina Banaszcuk (Link nicht mehr verfügbar, Stand: 06/2021) nachgelesen werden.
Welche Gegenstrategien gegen Hate speech gibt es?
Der häufig gut gemeinte Ratschlag „Lies bloß keine Kommentarspalten“, kann bei der realen Bedrohung durch Hate speech für Verfechter eines offenen, pluralen Austauschs im Netz nicht die Lösung sein.
Um gegen Hate speech aktiv vorzugehen braucht es vor allem zivilgesellschaftliches Engagement und Wissen darüber, wie Hater rechtlich belangt werden können sowie Handlungsfähigkeit in dem Ergreifen von Gegenmaßnahmen. Die Amadeu Antonio Stiftung nennt vier Gegenstrategien (Link nicht mehr verfügbar, Stand: 06/2021) sowie deren Vor- und Nachteile:
1. Die einfachste Gegenmaßnahme ist es, Hate speech einfach zu ignorieren und zu hoffen, dass die Hater hierdurch weniger Aufmerksamkeit erhalten. Häufig führt das leider nicht dazu, dass die Hassrede komplett eingestellt wird. Das Fehlen aktiver Gegenstimmen kann sogar die Verbreitung von Hate speech begünstigen.
2. Wird dahingegen versucht auf Hetze moderierend einzuwirken, kann das zur Folge haben, dass sich auch Gegenstimmen und Betroffene von Hate speech Gehör verschaffen können. Die Moderation von Beiträgen in sozialen Netzwerken oder von Foren ist jedoch aufwändig, teuer und voraussetzungsvoll.
3. Es kann darüber hinaus versucht werden aktiv mit Hatern in eine Diskussion zu treten, indem zum Beispiel problematische Aussagen aufgegriffen und durch das Heranziehen von weiteren Quellen kontrastiert werden. Der sogenannte Counter speech kann nervenaufreibend sein, gerade weil in einer durch Hasskommentare aufgeladenen Diskussion rationale Argumente kaum auf Zustimmung treffen. Außerdem ist dies eine noch aufwändigere und damit kostenträchtigere Strategie.
4. Eine weitere Gegenmaßnahme ist der humorvolle Umgang mit Hate speech. Durch Ironisierungen kann versucht werden auf absurde Argumentationen hinzuweisen, es fördert jedoch nicht – wie es Diskussionen ermöglichen – den Dialog mit den Hatern.
Ein Versuch, Hate speech von vorneherein zu erschweren stellt das gemeinsame Aufstellen von Kommunikationsregeln dar. Viele Forenbetreiber und Betreiber von sozialen Netzwerken und Messengeren haben inzwischen sogenannte Netiquetten erstellt (Netiquette von Internet-ABC e.B., Link). Hierbei handelt es sich um das Formulieren von Benimmregeln für die gemeinsame Nutzung eines Onlinedienstes, vergleichbar mit einem Knigge für Onlinekommunikation. Verstößt ein/e NutzerIn gegen die Regeln, wird er von der Nutzung des Dienstes ausgeschlossen; dabei stehen sowohl die AnwenderInnen als auch die NutzerInnen in der Pflicht die Einhaltung der Regeln zu überwachen.
Das wirksamste und zugleich langfristigste Mittel gegen Hatespeech ist allerdings Medienbildung. Sie befähigt Menschen, ihr eigenes Kommunikationsverhalten im Netz kritisch zu überprüfen, klärt sie über Wirkungsweisen und Erscheinungsformen von Hate speech auf und stößt wichtige medienethische Fragen an, wie z.B. „Wie wollen wir im Netz miteinander umgehen?“, „Wie soll über andere Menschen im Netz gesprochen werden?“ und „Auf welche Werte wollen wir uns hierbei einigen?“. Eltern und PädagogInnen können Kinder und Jugendliche unterstützen, indem sie ihnen einen kritischen und verantwortungsvollen Medienumgang vorleben, der auch beinhaltet – sich zum Wohle aller – gegen menschenunwürdige Hetze handlungskompetent zur Wehr zu setzen.
Zum Video „Freiheit im Netz“ aus der Serie „…und es hat Klick gemacht“
Autorin: Christina Rolle, Assistentin des Leiters der Clearingstelle Medienkompetenz
Weiterführende Links und Informationen:
Eine sowohl sprachwissenschaftliche als auch politische Begründung des Begriffes findet sich bei der Antonio Amadeu Stiftung unter http://www.amadeu-antonio-stiftung.de/hatespeech/
Die oben genannten Verweise sind enthalten in der Broschüre „Geh sterben!“ der Amadeu Antonio-Stiftung zum Umgang mit Hate Speech und Debattenkultur im Internet https://www.amadeu-antonio-stiftung.de/w/files/pdfs/hatespeech.pdf
Kolumne „Auch digital ist brutal“ zum Umgang mit Cybermobbing http://medienkompetenz.katholisch.de/Medienwelten/JugendMedien/Cybermobbing.aspx
Initiative #NichtEgal https://nichtegal.withyoutube.com/
#NichtEuerErnst https://www.youtube.com/watch?v=C4SS_Skg1XU
Büsch, Andreas/Schreiber, Björn (2016): Let’s talk about Werte. Ethische Herausforderungen für die Medienpädagogik durch die Digitalisierung. In: Meister, Dorothee/Brüggemann, Marion/Knaus, Thomas (2016): Kommunikationskulturen in digitalen Welten. Konzepte und Strategien der Medienpädagogik und Medienbildung. München: kopaed (im Druck).
Pingback: Invention of Trust - Clearingstelle Medienkompetenz