Fragen und Antworten Facebooks Pflichten bei rechter Hetze
Fremdenfeindliche Kommentare, Anfeindungen gegen Flüchtlinge und Beschimpfungen sind immer wieder in den sozialen Netzwerken zu lesen, besonders auf Facebook. Doch darf oder muss das US-Unternehmen so etwas löschen?
Gelten die Äußerungen der Nutzer rechtlich als Äußerungen von Facebook?
Nein. Man muss rechtlich klar unterscheiden zwischen der geposteten Äußerung des Nutzers und dem Anbieter Facebook, der dafür die Plattform bietet. Deshalb haftet das Unternehmen Facebook auch nicht selbst zum Beispiel auf Schadensersatz für die rechtswidrige Äußerung eines Nutzers. Mitarbeiter von Facebook können auch nicht strafrechtlich wegen rechtswidriger Inhalte der Nutzer verfolgt werden. Allerdings hat das Unternehmen in bestimmten Situationen eine Kontrollpflicht.
Muss Facebook Äußerungen der Nutzer von sich aus auf Rechtsverstöße kontrollieren und gegebenenfalls löschen?
Nein. Facebook und andere Anbieter sozialer Netzwerke oder Plattformen sind nicht verpflichtet, "die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen". Das steht in § 7 Absatz 2 Telemediengesetz. Facebook muss also nicht auf eigene Faust nach fremdenfeindlichen Äußerungen der Nutzer suchen. Anders ist das aber, wenn Facebook konkrete Hinweise bekommt. An diese Situation knüpft wohl die Kritik von Justizminister Maas an.
Muss Facebook nach entsprechenden Hinweisen Äußerungen von Nutzern prüfen und gegebenenfalls löschen?
Ja. Der Bundesgerichtshof hat mehrfach entschieden, dass Anbieter solcher Plattformen "Prüfungspflichten" haben, wenn sie konkrete Hinweise auf rechtswidrige Äußerungen bekommen. Das kann bei Facebook zum Beispiel durch die Meldung eines anderen Nutzers geschehen. Dafür gibt es auf der Plattform einen eigenen "Melden"-Link. Dann muss Facebook prüfen, ob der Kommentar tatsächlich gegen gesetzliche Regelungen verstößt. Solche Prüfpflichten treffen auch andere Online-Portale. Etwa wenn Ebay Hinweise auf gefälschte Produkte bekommt, oder YouTube auf Verstöße gegen das Urheberrecht.
Für Facebook bedeutet ein konkreter Hinweis also: Es muss die Äußerung prüfen, aber nicht automatisch löschen. Das hängt davon ab, ob die Äußerung gegen Gesetze verstößt, also zum Beispiel Persönlichkeitsrechte verletzt, eine "Beleidigung" oder "Volksverhetzung" ist. Und genau da fangen die schwierigen rechtlichen Fragen an. Wie weit reicht die die Meinungsfreiheit? Wo genau hat sie ihre Grenzen? Jenseits der "evidenten" Verstöße, von denen der Justizminister spricht, ist das in vielen Fällen eine schwierige juristische Abwägung.
Welche Regeln gibt sich Facebook selbst?
Facebook selbst hat auch eigene Regeln erstellt für den Umgang mit bestimmten Inhalten und Kommentaren, die sogenannten "Gemeinschaftsstandards". Sie wurden - nach einiger Kritik - 2015 aktualisiert. Nach diesen Grundsätzen will Facebook nicht nur Content mit zu viel nackter Haut oder pornographischem Inhalt löschen. Auch Hass-Kommentare, mit denen andere Menschen beispielsweise nur aufgrund ihrer ethnischen Herkunft, ihrer sexuellen Orientierung oder auch ihrer religiösen Zugehörigkeit angegriffen werden, sollen nach diesen Standards entfernt werden. Ob dies tatsächlich immer der Fall ist, daran scheint der Justizminister zu zweifeln.
Was garantiert die Meinungsfreiheit und welche Grenzen hat sie?
Das sind Fragen, die ganze Bibliotheken füllen, und über die man sich die Köpfe heiß reden kann. Deshalb an dieser Stelle nur einige Leitlinien. Kriterium für eine "Meinung" ist, dass sie sich nicht als wahr oder unwahr beweisen lässt, also eine Wertung ist. Die von Artikel 5 Grundgesetz geschützte Meinungsfreiheit ist ein hohes Gut. Das Bundesverfassungsgericht legt sie traditionell sehr weit aus. Nicht jede kritische oder zugespitzte Äußerung zur Asylpolitik oder zu Asylbewerbern ist sofort rechtlich verboten. Das Grundgesetz vertraue auf die Kraft der freien Auseinandersetzung "als wirksamste Waffe auch gegen die Verbreitung totalitärer und menschenverachtender Ideologien", sagt Karlsruhe.
Klar ist aus rechtlicher Sicht aber auch: Aufrufe zu Gewalt sind verboten. Tabu sind auch die Verherrlichung, Verharmlosung oder Leugnung von NS-Verbrechen (§ 130 Absatz 3 und 4 Strafgesetzbuch). Wann genau die rechtliche Grenze zwischen erlaubter Meinung hin zur strafbaren "Beleidigung" oder zur "Volksverhetzung" überschritten wird, ist eine äußerst schwierige Abwägung in jedem einzelnen Fall.
Was bedeutet der Begriff "Zensur" aus rechtlicher Sicht?
Wenn Äußerungen gelöscht werden (sollen), kommt immer schnell der Vorwurf der "Zensur" auf. In Artikel 5 Absatz 1 Grundgesetz steht: "Eine Zensur findet nicht statt." Dabei ist aber wichtig zu wissen, was dieser Begriff aus rechtlicher Sicht umfasst und was nicht. Mit der in Artikel 5 Grundgesetz verbotenen "Zensur" ist eine Vorabkontrolle von Veröffentlichungen gemeint, und zwar durch den Staat. Das "Zensurverbot" ist also ein Abwehrrecht des Bürgers beziehungsweise der Medien gegen den Staat.
Mit "Zensur" ist rechtlich also nicht die präventive Kontrolle von Äußerungen zum Beispiel durch Betreiber von Onlineplattformen oder -foren gemeint; auch nicht die nachträgliche Kontrolle und mögliche Löschung wegen rechtswidriger Inhalte. Ob man dafür umgangssprachlich den Begriff der "Zensur" verwendet, ist eine andere Frage.
Was droht den Nutzern von Facebook, wenn sie rechtswidrige Texte posten?
Die Verantwortung und die Kontrollpflichten von Facebook sind das eine. Unberührt davon bleibt die Verantwortung jedes Nutzers für seine Äußerungen auf der Plattform. Wer Persönlichkeitsrechte verletzt, kann zum Beispiel zu Schadensersatz verurteilt werden. Und auch Staatsanwälte schauen genau hin, was in den sozialen Netzwerken geäußert wird. Ein Urteil von Ende Juli 2015 aus Passau zeigt, dass fremdenfeindliche und rassistische Hetze auf Facebook strafrechtliche Folgen haben kann: Ein Mann wurde wegen Volksverhetzung zu einer Geldstrafe in Höhe von 7500 Euro verurteilt.