Autor
Urs Güney hat Germanistik studiert und ein Praktikum bei der Fachstelle für Rassismusbekämpfung FRB absolviert. Ausserdem schreibt er als freier Journalist für NZZ Campus und andere Publikationen.
urs_gueney@gmx.ch
Immer wieder finden sich rassistische Inhalte auf Facebook. Eva-Maria Kirschsieper, Head of Public Policy für Deutschland, Österreich und die Schweiz, erklärt, welche Rezepte die Plattform dagegen hat. Damit diese effektiv wirken, braucht es wachsame Nutzerinnen und Nutzer. Und den Einsatz von Facebook – auch ausserhalb des Internets.
Wer rassistische Inhalte auf Facebook entdeckt, kann die Plattform mit wenigen Klicks über das Reporting-Tool «Beitrag melden» benachrichtigen. Verschwindet der Beitrag dann sofort?
Mitarbeitende von Facebook überprüfen die Mitteilung zunächst. Sie entfernen sie, wenn sie gegen die Nutzungsbedingungen verstösst. Als Hassbotschaften verletzen rassistische Inhalte die Gemeinschaftsstandards. Bei der Meldung können Sie angeben, dass der betreffende Beitrag verletzend ist in Bezug auf Rasse, Geschlecht, Neigungen oder Fähigkeiten. In der Regel sind problematische Inhalte nach wenigen Tagen gelöscht.
Wer setzt die Standards konkret durch?
Wer diese Kontrolle vornimmt, ist speziell geschult, auch etwa um rechtliche und kulturelle Unterschiede zu berücksichtigen. Die Verwendung des Hakenkreuzes zum Beispiel ist in Deutschland verboten. In vielen Ländern Asiens ist das gleiche Zeichen ein gängiges Symbol mit anderer Bedeutung – hier besteht kein Grund, es zu entfernen.
Welche Konsequenzen hat es, wenn man rassistische Inhalte postet?
Wer gegen die Nutzungsbestimmungen verstösst, erhält eine E-Mail. Darin machen wir auf die Unangemessenheit des geposteten Inhalts aufmerksam und weisen die Person an, ihr Handeln zu überdenken. Verletzt jemand wiederholt die Gemeinschaftsstandards – indem etwa immer wieder Hassreden gepostet werden, sperren wir das Profil. Ist ein Profil allerdings einzig darauf ausgelegt, Hassbotschaften zu verbreiten, sperren wir es sofort.
Kann man sich gegen das Entfernen von Beiträgen wehren, wenn man sie für unproblematisch hält?
Letztlich entscheiden die Mitarbeitenden in den Community Operations anhand der Richtlinien, ob etwas gegen die Gemeinschaftsstandards verstösst. Das ist im Einzelfall nicht immer einfach. Humoristische Posts müssen von ernsthaften unterschieden werden – Ironie und Satire sollen ja auf Facebook durchaus möglich sein. Wird ein gemeldeter Beitrag nicht gelöscht, erklären wir unsere Überlegungen. Wir schreiben der Person, die das Reporting-Tool genutzt hat, dass eine offene Diskussion auf Facebook erlaubt ist. Selbst dann, wenn gewisse Inhalte befremdlich oder beleidigend wirken können. Es gibt ja durchaus Möglichkeiten, Beiträge auszublenden, die man nicht sehen will, selbst wenn diese die Nutzungsbedingungen nicht verletzten.
Sucht Facebook auch von sich aus nach rassistischen Inhalten, um Hassbotschaften einzudämmen?
Angesichts der Menge an Beiträgen, die täglich gepostet werden, sind wir darauf angewiesen, dass uns missbräuchliche Inhalte gemeldet werden. Wir ermutigen die Menschen auf Facebook, von sich aus Ideen, Inhalte und Veranstaltungen kritisch zu bewerten. Zudem arbeitet Facebook mit zivilgesellschaftlichen Organisationen zusammen. So wollen wir verhindern, dass das Netzwerk zur Verbreitung rassistischen Gedankenguts genutzt wird.
Wie sehen solche Kooperationen konkret aus?
Facebook unterstützt Institutionen, die Experten in der Rassismusbekämpfung sind. In Deutschland beispielsweise haben wir zusammen mit «Laut gegen Nazis» und «Netz gegen Nazis» ein Faltblatt erstellt. Darin klären diese Institutionen auf, wie man Rassismus in sozialen Medien erkennt. Und zwar selbst dann, wenn es sich um eher versteckte Formen handelt, die sich vordergründig an gesellschaftlichen Themen abarbeiten. Wir unterstützen die Organisationen dabei, ihre Botschaft zu verbreiten, und versuchen, Strategien der counter speech bekannt zu machen. Wir zeigen so, dass man Hassreden nicht einfach hinnehmen muss, sondern solche Diskussionen beeinflussen kann. Mit der EKR prüfen wir derzeit, ob und in welcher Form solche Partnerschaftsmodelle auch auf die Schweiz übertragbar wären. Lokale Partnerschaften sind ein gutes Instrument gegen Bewegungen, die Wellen von Hassbotschaften verbreiten.
Regelmässig fallen auf Facebook Politiker mit rassistischen Aussagen auf. Was verleitet sie dazu, sich in sozialen Medien hemmungslos – manchmal gar in strafbarer Weise – zu äussern?
Sich über individuelle Beweggründe auszulassen, wäre höchst spekulativ. Das kann aus einem akuten Impuls heraus geschehen oder aus einem dezidierten Interesse daran, dieses Gedankengut unter die Leute zu bringen. Facebook wird viel als Kanal der politischen Kommunikation genutzt. Gerade Politikern würde ich unterstellen, dass sie sich der Wirkung des Mediums und der Öffentlichkeit, die sie dadurch erreichen, durchaus bewusst sind.
Ist alles öffentlich, was auf Facebook geschieht?
Nein, jeder entscheidet selber, wer das Publikum seiner Beiträge ist. Auf Facebook gibt es das persönliche Profil, in dem man mit Freunden vernetzt ist. Es ist für den privaten Kontakt zwischen Menschen bestimmt. Mit individuellen Einstellungen kann man den Kreis derjenigen festlegen, für die ein Beitrag bestimmt ist. Daneben gibt es die Möglichkeit, sich eine sogenannte Seite zu erstellen. Die Seite ist mit allem, was auf ihr geteilt und gepostet wird, bewusst und absichtlich öffentlich. Dies ist ein Kommunikationskanal für Personen und Institutionen der Öffentlichkeit.
Beschränkt sich denn die Prüfung der Inhalte auf diese öffentlichen Seiten?
Nein, man kann auch Inhalte in privaten Profilen melden. Sogar aus geschlossenen Gruppen, zu denen man sich zusammenfinden kann, werden rassistische Inhalte entfernt – wenn sie uns bekannt werden. Gruppen, zu denen man selbst keinen Zugang hat, kann man als Ganzes prüfen lassen. Wir wollen nicht zulassen, dass sich darin Radikale gegenseitig in ihren Haltungen bestärken.
Bei der Überprüfung berücksichtigt Facebook den nationalen Gesetzesrahmen. Nimmt Facebook auch mit Behörden Kontakt auf, wenn strafrechtlich relevante Inhalte entdeckt werden?
Mit Strafverfolgungsbehörden arbeiten wir zusammen, wenn diese sich an uns wenden, und lassen ihnen, soweit wir rechtlich dazu verpflichtet sind, Materialien im Rahmen von Ermittlungen zukommen. In einem halbjährlichen Transparenzbericht legt Facebook die Anzahl von Behördenanfragen in einer globalen Übersicht offen. Darin ist auch der prozentuale Anteil der Anfragen angegeben, zu denen Daten weitergegeben werden mussten.
Gepostete Inhalte stammen letztlich von den Nutzern, nicht von Facebook. Inwieweit ist das Unternehmen aber dennoch für das verantwortlich, was im Netzwerk geschieht?
Facebook ist eine Plattform der freien Meinungsäusserung. Wir wollen es den Menschen ermöglichen, sich über Dinge auszutauschen, die sie beschäftigen. Facebook darf aber nicht genutzt werden, um Menschen zu mobben oder um Rassismus zu verbreiten. Deshalb schränken wir die sehr offene Grundhaltung in diesen Punkten ein. In welcher Form solche Inhalte auch immer eingebracht werden: Sie sind missbräuchlich und werden verbannt.
« Il faut nous signaler les contenus illicites »
(Kurzversion)
«Segnalateci i contenuti inappropriati»
(Kurzversion)