Ralph Oliver Graef | | von einem W&V Leserautor

Hasskommentare: Diese Rechte und Pflichten hat Facebook

Nicht erst seit der Flüchtlingskrise fordern Politiker, Wirtschaft und Bürger einen verschärften Umgang mit Hasskommentaren in sozialen Netzwerken. Viele Einträge sind strafbar oder können den Boden bereiten für Gewalttaten. Und sie richten weitreichende Schäden an: So müssen sich Unternehmen wie Real mittlerweile gegen Gerüchte vehement zur Wehr setzen, Zeitungsverleger warnen vor manipulierten Artikeln, die für Hetze missbraucht werden.

Bundesjustizminister Heiko Maas hatte sich vor einer Woche mit Facebook-Vertretern getroffen und sie zum schnelleren Löschen von Hassbotschaften im Netz aufgefordert. Doch wie ist die rechtliche Situation? Welche Rechte und Pflichten hat Facebook bei der Löschung von Hasskommentaren? 

Medienanwalt Ralph Oliver Graef* erklärt in einem Gastbeitrag die rechtlichen Hintergründe.

Die in jüngster Zeit vermehrt auftretenden Hasskommentare, auch "Hate Speech" genannt, in sozialen Netzwerken wie Facebook gegen "die Asylanten" oder "die Flüchtlinge" erfüllen den Straftatbestand der Volksverhetzung im Sinne des § 130 StGB. Daher beschäftigt viele Facebook-Nutzer die Frage: Kann ein Unternehmen wie Facebook sich aus der Haftung ziehen, indem es darauf verweist, es sei nur "Dienstleister" bzw. "Betreiber einer technischen Plattform"? Oder könnte Facebook dadurch, dass es eine Plattform für fremdenfeindliche Hetze bietet, Mitverursacher der Verbreitung dieser Inhalte sein?

Eine Strafbarkeit von Facebook wird regelmäßig ausscheiden. Denn strafbar machen können sich immer nur die einzelnen Mitarbeiter oder Organe von juristischen Personen, nicht aber die juristische Person selbst. Ein kodifiziertes Unternehmensstrafrecht existiert in Deutschland nicht. Nur ausnahmsweise kann unter den Voraussetzungen des § 30 OWiG eine Geldbuße gegen eine juristische Person oder Personenvereinigung verhängt werden.

Auch zivilrechtlich ist es nicht einfach, gegen Facebook vorzugehen. Denn das Telemediengesetz sieht in § 10 TMG eine Haftungsprivilegierung sogenannter Hostprovider vor. Danach ist Facebook als "Gastgeber" nicht für die Posts seiner User verantwortlich, solange das Unternehmen keine Kenntnis von der Existenz des Posts und davon hat, dass der Beitrag eine Straftat darstellt. Nach Kenntniserlangung kann Facebook einer Haftung dann aber nur noch entgehen, indem es unverzüglich tätig wird und die Information entfernt oder den Zugang des Nutzers sperrt. Sobald also ein persönlichkeitsrechtsverletzender oder sogar strafbarer Inhalt durch einen Benutzer gemeldet wird, hat Facebook Kenntnis und kann deshalb zivilrechtlich verfolgt werden. Den Hostprovider treffen zwar keine proaktiven Überwachungspflichten, was für Beiträge die Nutzer auf seiner Seite veröffentlichen. Bei einem eindeutigen "Hate Forum" wäre dies anders. Sobald aber über die "Meldefunktion" auf einen rechtswidrigen Inhalt hingewiesen wurde, entstehen gesteigerte Prüfungspflichten. Im Rahmen des Zumutbaren muss Facebook dann dieser Prüfpflicht nachkommen.

Was "zumutbar" ist, bestimmt sich nach dem Einzelfall. Angesichts der Größe des global agierenden Unternehmens mit mehr als 1 Milliarde Nutzern, wird zwar eine sofortige Prüfung nicht verlangt werden können, aber ein zeitnahes Tätigwerden. Dabei ist zu bedenken, dass es auf die Kenntnis eines Mitarbeiters von Facebook ankommt, also eines Menschen. Ein Computer kennt keine Informationen, sondern speichert nur Daten. Zahlreiche Nutzer berichten darüber, dass sie fremdenfeindliche Kommentare "gemeldet" haben und trotz offensichtlich rechtswidrigem Inhalt des Posts folgende standardisierte Antwort von Facebook erhalten haben:

"

"(…) Wir haben den von dir wegen Hassbotschaften oder -symbole gemeldeten Beitrag geprüft und festgestellt, dass er nicht gegen unsere Gemeinschaftsstandards verstößt."

"

Die Frage ist daher, ob Facebook das Löschen rechtswidriger Inhalte unter Hinweis auf seine "Gemeinschaftsstandards" verweigern darf. Facebook stellt sich auf den Standpunkt, dass nur seine eigenen Nutzungsbedingungen darüber bestimmen, welche Inhalte auf Facebook zulässig bzw. unzulässig sind und verweist auf seine "Gemeinschaftsstandards". Diese Gemeinschaftsstandards sind vom amerikanischen Recht geprägt, welches Hate Speech in größerem Umfang als das deutsche Recht zulässt. Zu bedenken ist auch, dass Facebook ein normaler Teilnehmer des Wirtschaftslebens ist und trotz seiner starken Marktstellung keinen gesellschaftlichen Auftrag als soziales Netzwerk zu erfüllen hat.

Aber selbst wenn sich die Europazentrale des Unternehmens in Irland befindet, muss Facebook die deutschen Gesetze einhalten. Diese diktieren unmissverständlich: Facebook haftet zivilrechtlich selbst, wenn es trotz Kenntnis rechtswidrige Inhalte nicht löscht.

*Über den Autor:

Medienanwalt Ralph Oliver Graef ist Managing Partner der Medienrechtskanzlei Graef Rechtsanwälte, Hamburg, und zudem als Attorney-at-Law in New York, USA, zugelassen. Er berät deutsche und internationale Filmproduzenten und Fernsehsender, Verlage, Technologieunternehmen sowie Prominente.

Hasskommentare: Diese Rechte und Pflichten hat Facebook

Artikel bewerten

Vielen Dank, Ihre Bewertung wurde registriert!

Sie können leider nur einmal pro Seite bewerten.

Ihre Bewertung wurde geändert, vielen Dank!

Leserkommentar

Wir freuen uns über Ihre Kommentare.

* Pflichtfeld
** Pflichtfeld, wird nicht veröffentlicht