21
Okt
Partner
Partner
Hetze: Jetzt spricht Facebook!

Anfang der Woche, am Montagabend, postete der Kölner Maurice Kahle ein Foto auf Facebook, das ihn küssend mit seinem Freund zeigt. Am Mittwochmorgen hatte das Bild fast 20.000 Kommentare; heute am Freitagabend sind fast 45.000 Reaktionen zusammengekommen: über 30.000 Likes, über 7.000 Herzen. Viele der jetzt noch zu lesenden Reaktionen sind wohlwollend und sehr unterstützend, doch das war nicht von Anfang an so. ENOUGH is ENOUGH! OPEN YOUR MOUTH! machte den Fall am Dienstagmittag öffentlich, ohne dabei die Klarnamen, noch die Profilbilder zu schwärzen. Journalistisch eine Grauzone – aber wir sind Aktivist*innen. Alle Kommentare sind ohnehin (immer noch) für alle im Netz sichtbar. Jede*r kann sich über alle Kommentierenden im “sozialen” Netzwerk informieren. Viele User*innen gaben und geben bis heute den unzähligen Hasskommentaren Gegenwind. “Counterspeech” (engl. für Gegenrede) nennt das Facebook. Natürlich – denn so weiß der Netzwerkriese, dass die User*innen online bleiben und möglichst lange auf ihren Seiten verweilen. Dass sich Menschen mit volksverhetzenden Kommentaren und Hassbotschaften, bis hin zu konkreten Morddrohungen, auch im Internet strafbar machen, das wissen inzwischen alle. Sollte man meinen. Erst jüngst wurde ein bereits vorbestrafter Mann, der bei Facebook unter anderem die Erschießung der Bundeskanzlerin gefordert hatte, vom Würzburger Landgericht zu anderthalb Jahren Gefängnis verurteilt.

Wir können und wollen diese Zustände in sozialen Netzwerken nicht einfach so hinnehmen und haben uns mehrfach an Facebook gewandt. Viele Telefonate, persönliche Gespräche und E-Mails später, hat Facebook uns nun am Freitagabend endlich geantwortet. Tina Kulow, “Director Corporate Communication bei Facebook”, war bereit, sich schriftlich unseren Fragen zu stellen.

Zuallererst, was sagst Du ganz persönlich zu dem Fall Maurice?

Ich kann die Bestürzung über diesen Fall sehr gut nachvollziehen – Fälle wie der von Maurice bewegen uns bei Facebook und mich persönlich immer sehr. Um so mehr freut es mich, dass es Menschen wie Maurice und Initiativen wie “Enough is Enough” gibt, die sich für die LGBTQ-Community stark machen und öffentlich ein Zeichen gegen Homophobie setzen. Das gilt auch und gerade für uns. Und dafür stehe ich auch persönlich. Ich finde es ebenso wie ihr und viele andere bestürzend, dass das Foto solche Reaktionen im Jahr 2016 hervorruft. Wir haben noch einen langen Weg zu gehen – und müssen aufpassen dass es nicht rückwärts geht.

Das klingt zuversichtlich. Wir haben dennoch einige Fragen, die vor allem auch von unseren Follower*innen  kommen. Viele User*innen wissen nicht, wie man einen Kommentar meldet. Erklär doch noch einmal kurz, wie das funktioniert.

Melden kann man Seiten, Profile, Fotos, Kommentare – alles – hier nochmal wie es geht in der Zusammenfassung: https://www.facebook.com/help/1380418588640631/?helpref=hc_fnav. Jede Meldung wird vom Community Operations Team, also von individuellen Personen, geprüft – in der jeweiligen Sprache. Anschließend wird eine passende Maßnahme ergriffen, wie z.B. die Löschung von Kommentaren. Unser Community Operations Team ist speziell für diese Aufgabe ausgebildet und arbeitet weltweit täglich rund um die Uhr. Dadurch können die meisten Meldungen innerhalb von 24 Stunden beantwortet werden. Facebook entfernt sämtliche Hassbotschaften, d. h. Inhalte, die Personen aufgrund der folgenden Eigenschaften direkt angreifen: Rasse, Ethnizität, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht bzw. geschlechtliche Identität oder schwere Behinderungen oder Krankheiten.

Facebook bietet ja verschiedene Gründe an, Dinge zu zu melden. Welche grundsätzlichen Unterschiede müssen hierbei beachtet werden?

Die verschiedenen Gründe geben unserem Community Operations Team eine bessere Einschätzung darüber, weshalb ein Inhalt gemeldet wurde. Wird die Option „Es ist nicht interressant“ angeklickt, kann es sich auch um versteckte Werbung handeln, die von einem Nutzer als Kommentar gepostet wurde. Bei der Option „Es sollte nicht auf Facebook sein“ wird hingegen deutlicher, dass ein Nutzer sich dabei an einem bestimmten Inhalt stört oder sich bedroht oder beleidigt fühlt. Wie bei “Hassrede”, dass du auch angeben kannst. Insofern ist der Rat einfach: So präzise und wahrheitsgemäß wie möglich melden, damit wir intern dass entsprechend richtig zuordnen können.

Wie gelange ich zur Kommentar-URL?

Der URL-Link zu jedem Kommentar verbirgt sich hinter dem Veröffentlichungsdatum des jeweiligen Kommentars. Drauf klicken – voilà!

Wie prüft Facebook meine Meldung und wie lange dauert das? Wer entscheidet, ob ein Kommentar gelöscht wird und entscheidet diese Person das dann allein?

Jede Meldung wird vom Community Operations Team, also von Personen, geprüft – in der jeweiligen Sprache. Anschließend wird eine passende Maßnahme ergriffen. Das beinhaltet beispielsweise die Löschung von Inhalten, die Hassreden enthalten. Das Community Operations Team ist speziell für diese Aufgabe ausgebildet und arbeitet weltweit täglich rund um die Uhr. Wir haben uns verpflichtet jede Meldung innerhalb von 24 Stunden zu bearbeiten. Und daran halten wir uns. Facebook entfernt sämtliche Hassbotschaften, d. h. Inhalte, die Personen aufgrund der folgenden Eigenschaften direkt angreifen: Rasse, Ethnizität, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht bzw. geschlechtliche Identität oder schwere Behinderungen oder Krankheiten. Die Präsenz von Organisationen und Personen, die Hass gegen diese geschützten Gruppen schüren, ist auf Facebook nicht zulässig. Im Zuge der Kooperation mit der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) hat Facebook zudem eine Richtlinie optimiert, die unseren Community Operations Teams dabei hilft, Inhalte besser zu identifizieren, die möglicherweise Gewalt zur Folge haben.

Kann ich einen Kommentar öfter melden?

Ob ein Inhalt gelöscht wird, hängt nicht davon ab, wie häufig dieser gemeldet wurde. Gelöscht oder gesperrt wird nur, wenn dieser Inhalt gegen die Community Standards von Facebook verstößt. Sogenannte Löschattacken führen also nicht dazu, dass ein Inhalt gelöscht wird, sofern dieser konform mit den Community Standards ist.

Gestern zum Beispiel erhielten wir im Team die Meldung, dass das Kontingent an Meldungen “für heute” erschöpft sei. Wieviele Kommentare kann ich denn am Tag melden? Und warum wird das überhaupt begrenzt?

Ich möchte hier nichts Falsches sagen und werde Euren Einwand bzgl. der „Höchstgrenze“ gerne noch einmal gründlich intern prüfen. Grundsätzlich gilt, dass es möglich ist sehr viele Kommentare auch an einem Tag zu melden.

Facebook hat meine Meldung abgelehnt, weil sie die „Gemeinschaftsstandards“ entspricht. Wo kann ich diese Standards nachlesen?

Die Standards sind online unter folgendem Link verfügbar: https://de-de.facebook.com/communitystandards/

Jetzt bin ich der Meinung, dass meine Meldung von Facebook falsch eingeschätzt wurde. Was kann ich jetzt noch tun?

Ein erneutes Melden von Kommentaren ist möglich, was eine erneute Überprüfung des Inhaltes veranlasst. Das mehrfache Melden von Kommentaren oder Beiträgen trägt jedoch nicht automatisch dazu bei, dass Inhalte schneller gelöscht werden. Gelöscht oder gesperrt wird nur, wenn Inhalte gegen die Community Standards von Facebook verstoßen. In Deutschland arbeiten wir aber mit vielen Organisationen zusammen. Besonders hervorheben möchte ich an dieser Stelle die FSM. Es kann also helfen, gewissermaßen als Eskalation die FSM diesbezüglich zu informieren.

Viele unserer User*innen möchten Volksverhetzung und/oder Morddrohungen zur Anzeige bringen. Was empfehlt ihr zu tun?

Gegen Nutzer, die anderen Personen Gewalt androhen, gehen wir konsequent vor. Mit den geeigneten Maßnahmen, in Kooperation mit starken Partnern und in Absprache mit den Behörden. Bei direkten Drohungen, Gewaltankündigungen oder Volksverhetzung sollten sich Menschen direkt mit den Strafverfolgungsbehörden in Verbindung setzen.

Arbeitet Facebook mit den zuständigen Behörden zusammen?

Wir arbeiten weltweit mit den zuständigen Behörden zusammen. Wir bemühen uns in diesem Zusammenhang sehr transparent zu sein und veröffentlichen regelmäßig unseren „Global Government Requests Report“. Dieser Report gibt Auskunft über die Anzahl der Anfragen von Strafverfolgungsbehörden bezüglich einer Herausgabe von Daten. Zusätzlich gibt der Report die Anzahl der Inhalte wider, die aufgrund von lokaler Gesetzgebung in Deutschland eingeschränkt sind.

Hierzu zwei Punkte zum besseren Verständnis:

  • Der Global Government Requests Report listet die Anzahl jener Inhalte, die Facebook länderspezifisch eingeschränkt hat, da sie gegen lokale Gesetze verstoßen. Ein Beispiel für Deutschland: Leugnung des Holocausts, was in Deutschland eine Straftat darstellt.
  • Die Zahl der eingeschränkten Inhalte für Deutschland im Global Government Requests Report ist also folglich NICHT die Anzahl der Inhalte, die aufgrund eines Verstoßes gegen die Gemeinschaftsstandards von Facebook gelöscht wurden.

Wie kann Facebook Bilder mit Nacktheit innerhalb Sekunden herausfiltern und löschen, Gewaltvideos und -fotos aber nicht? Wenn es zur Nacktheit einen Algorithmus gibt, wie kann es sein, dass es den nicht auch für Bilder mit Adolf Hitler gibt?

Jede Meldung wird vom Community Operations Team geprüft, also von individuellen Personen. Klar ist, dass man Nacktheit leichter erkennen kann, als z.B. Hassrede. Grundsätzlich kommt es aber – sowohl bei Nacktheit – als auch bei allen anderen Inhalten auf den Kontext an: Ein Bild von Adolf Hitler z.B. bedeutet nicht immer, dass es aus einem rechtsextremistischen Hintergrund heraus gepostet wurde. Dabei kann es sich beispielsweise auch um einen Dokumentarfilm handeln.

Ist Facebook noch ein „Soziales Netzwerk“?

Ja, absolut. Unser Ziel ist es, den Menschen das Teilen von Inhalten zu ermöglichen und die Welt zu vernetzen. Aber, und hier kommt ein aber: Facebook spiegelt die Realität wider. Und wir wissen, dass diese Realität eben auch unsozial sein kann. Und es liegt an uns hier gegen zu halten. Und dafür zu kämpfen, dass das Soziale, das Verbindende, einfach das Menschliche gewinnt.

Außerdem sollten wir nicht vergessen: Jeden Tag treten Menschen Facebook bei, um ihre Geschichten zu teilen, die Welt mit den Augen anderer zu sehen und sich mit Freunden und Themen zu verbinden, die ihnen wichtig sind. Die Unterhaltungen, die auf Facebook stattfinden, spiegeln die Vielfalt einer Gemeinschaft mit mehr als einer Milliarde Menschen wider. Wir möchten, dass sich die Menschen sicher fühlen, wenn sie Facebook verwenden. Aus diesem Grund haben wir eine Reihe von Gemeinschaftsstandards ausgearbeitet. In diesen Richtlinien wird vermittelt, welche Inhalte auf Facebook geteilt werden können und welche uns unter Umständen gemeldet und von uns entfernt werden müssen. Und die allermeisten Menschen haben keinen Hass auf ihrem Facebook – sondern Freunde, Familie und die Dinge die ihnen wichtig sind.

Wie können wir alle Facebook sicherer machen?

Indem ihr weiter meldet. Facebook ist darauf angewiesen, dass die Menschen Inhalte melden, die sie bedenklich oder bedrohlich finden. Aber auch, indem ihr mit uns diskutiert: Wir sind auf euer Feedback angewiesen. Facebook entwickelt sich ständig weiter – wir wissen, dass wir nicht perfekt sind und es noch viele Punkte gibt, bei denen wir besser werden müssen. Genau deswegen suchen wir den Austausch mit Initiativen wie „Enough is Enough“. Denn nur so können wir uns weiter entwickeln und Facebook zu einer sicheren Plattform für alle machen.

Und auch, wenn wir es schon oft gesagt haben, will ich es noch einmal betonen: Durch Counterspeech! Selbstverständlich im Internet und auf Facebook, wie ihr es in den letzten Tagen schon vorbildlich vorgemacht habt. Aber auch zu Hause, auf der Straße oder am Arbeitsplatz müssen wir als Gemeinschaft dagegenhalten und Zeichen setzen.

Eine letzte Frage: Wie kann es sein, dass eine eindeutige Hassbotschaft gemeldet wurde („Ich schneide euch die Kehle durch…“) und Facebook meint, sie verstoße nicht gegen die Gemeinschaftsstandards, wenn sie doch alle persönlich gelesen werden?

Diese Frage blieb uns Facebook bis Redaktionsschluss schuldig. Wir ergänzen diese, sobald sie beantwortet wird.

Online Strafanzeige stellen

Wenn ihr eine Online-Strafanzeige für die richtige Lösung haltet, eure Interessen durchzusetzen, könnt ihr die jetzt online erstatten. Leider unterstützen noch nicht alle Bundesländer die Online-Strafanzeige.

Unser Tipp:
Überschlaft die Angelegenheit möglichst mindestens eine Nacht und sprecht darüber mit eurer Familie und euren nahestehenden Freund*innen bevor ihr eine Online-Strafanzeige erstellt.

Hier geht’s zur Online-Strafanzeige: www.online-strafanzeige.de

Die große Facebook-Umfrage

Unsere Umfrage: Ist Facebook noch ein “soziales” Netzwerk?

Jetzt abstimmen: https://pinpoll.com/embed/30522

 

KOMMENTAR SCHREIBEN