BGH
Beschluss vom 11.03.2025 VI ZB 79/23
TDDDG § 21 Abs. 2; StGB §§ 185, 186, 187
Der BGH hat entschieden, dass eine Bestandsdatenauskunft nach § 21 Abs. 2 TDDDG nur bei Vorliegen einer der dort genannten Straftatbestände erfolgen muss.
Leitsätze des BGH:
a) Gemäß § 21 Abs. 2 TDDDG setzen die Gestattung der Auskunftserteilung und die korrespondierende Verpflichtung zur Auskunft über die Bestandsdaten eines Nutzers - sofern nicht audiovisuelle Inhalte betroffen sind - voraus, dass der beanstandete Inhalt den Tatbestand einer der in der Bestimmung genannten Strafvorschriften erfüllt.
b) Ist die beanstandete Äußerung als Werturteil zu qualifizieren, scheidet eine Verwirklichung der Tatbestände der §§ 186, 187 StGB aus. Im Zweifel ist im Interesse eines wirksamen Grundrechtsschutzes davon auszugehen, dass es sich um eine Meinungsäußerung handelt.
c) Steht die Erfüllung eines Straftatbestands in Rede, müssen bei mehrdeutigen Äußerungen andere mögliche Deutungen mit schlüssigen Gründen ausgeschlossen werden, bevor die zur Verurteilung führende Bedeutung zugrunde gelegt wird. Wenn eine straflose Bedeutung nicht ausschließbar ist, ist diese der Beurteilung zugrunde zu legen.
BGH, Beschluss vom 11. März 2025 - VI ZB 79/23 - OLG Köln - LG Köln
Das LG München hat entschieden, dass ein E-Mail-Anbieter nach § 21 Abs. 2 TDDDG Auskunft über Bestandsdaten eines Nutzers geben muss, auch wenn die streitgegenständlichen rechtswidrigen Inhalte nicht über diesen Dienst verbreitet wurden.
Aus den Entscheidungsgründen: Das Gericht ist der Ansicht dass § 21 TDDDG auf die Beteiligte und den von ihr betriebenen E-Mail-Dienst „G...“ Anwendung findet. Bei der Beteiligten handelt es sich um einen Anbieter digitaler Dienste im Sinne von § 21 Abs. 2 Satz 1 TDDDG.
Der Begriff „digitaler Dienst“ ist in § 2 Abs. 2 TDDDG selbst nicht definiert. Allerdings finden gemäß § 2 Abs. 1 TDDDG die Bestimmungen des Digitalen-Dienste-Gesetzes (DDG) auch für das TDDDG Anwendung. In § 1 Abs. 4 Nr. 1 DDG findet sich zwar auch keine selbstständige Definition des Begriffs „digitaler Dienst“, es erfolgt aber erneut eine Verweisung dahingehend, dass ein „digitaler Dienst“ ein Dienst im Sinne des Artikels 1 Absatz 1 Buchstabe b der Richtlinie (EU) 2015/1535 des Europäischen Parlaments und des Rates vom 9. September 2015 über ein Informationsverfahren auf dem Gebiet der technischen Vorschriften und der Vorschriften für die Dienste der Informationsgesellschaft (ABl. L 241 vom 17.9.2015, S. 1) sein soll. In der besagten Richtlinie wird „Dienst“ als eine Dienstleistung der Informationsgesellschaft definiert, d.h. jede in der Regel gegen Entgelt elektronisch im Fernabsatz und auf individuellen Abruf eines Empfängers erbrachte Dienstleistung. Im Sinne dieser Definition bezeichnet der Ausdruck „Dienst“ unter anderem auch eine „elektronisch erbrachte Dienstleistung“, d.h. eine Dienstleistung, die mittels Geräten für die elektronische Verarbeitung (einschließlich digitaler Kompression) und Speicherung von Daten am Ausgangspunkt gesendet und am Endpunkt empfangen wird und die vollständig über Draht, über Funk, auf optischem oder anderem elektromagnetischem Wege gesendet, weitergeleitet und empfangen wird.
Nach dieser Definition ist auch der Dienst „G...“ zweifellos eine elektronisch erbrachte Dienstleistung. Denn ein E-Mail-Dienst dient naturgemäß dem Empfangen und Versenden von elektronischen Nachrichten, es werden Daten von einem Ausgangspunkt zu einem anderen vollständig elektronisch gesendet bzw. empfangen und dies erfolgt auch ausschließlich mittels Geräten für elektronische Verarbeitung, seien dies normale Computer, Tablets oder Smartphones. Dieser Dienst wird von der Beteiligten auch regelmäßig gegen Entgelt erbracht, was auch von der Beteiligten nicht in Abrede gestellt wird. Es ist allgemein bekannt, dass sämtliche E-Maildienste ihre Leistungen entweder gegen monetäre Bezahlung erbringen (dann zumeist im Rahmen von sog. „Premium-Modellen“, die exklusive Zusatzfunktionen erhalten und zumeist werbefrei sind) oder aber die Nutzer den Dienst dadurch bezahlen, dass sie ihre Daten dem Betreiber zum Zwecke der Auswertung (insbesondere für Werbezwecke) zur Verfügung stellen. Bei dem Dienst der Beteiligten handelt es somit um einen digitalen Dienst im Sinne von § 1 Abs. 4 Nr. 1 DDG und in der Folge auch um einen solchen im Sinne von §§ 2 Abs. 1, 21 Abs. 2 TDDDG. Keiner weiteren Erläuterung bedarf es, dass die Beteiligte in Bezug auf den digitalen Dienst auch Anbieter gemäß § 2 Abs. 2 Nr. 1 TDDDG ist, das sie selbst den E-Mail-Dienst betreibt und daher eigene digitale Dienste erbringt.
Das Gericht vermag auch nicht der Ansicht der Beteiligten zu folgen, wonach § 21 TDDDG auf die Beteiligte keine Anwendung finden soll, weil es sich bei ihr um einen „interpersoneller Telekommunikationsdienst“ i.S.d. § 3 Nr. 61 lit. b) TKG i.V.m. § 3 Nr. 24 TKG sowie i.S.d. Art. 2 Nr. 5 Richtlinie (EU) 2018/1972 über den europäischen Kodex für die elektronische Kommunikation (auch EKEK genannt, nachfolgend: „EECC-Richtlinie“) handelt. Es mag sein, dass die Beteiligte auch ein Telekommunikationsdienst in diesem Sinne ist, das Gericht kann aber nicht erkennen, warum ein Telekommunikationsdienst im Sinne des TKG nicht auch gleichzeitig ein Anbieter digitaler Dienste im Sinne des TDDDG sein können solle. Das insoweit von der Beteiligten konstruierte Exklusivverhältnis dieser Begriffe ist weder dem TKG noch dem TDDDG zu entnehmen. Dies erschließt sich auch bereits deswegen unmittelbar, weil beide Gesetze völlig unterschiedliche Regelungsfunktionen haben. Ziel des TKG ist gemäß § 1 Abs. 1 TKG, durch technologieneutrale Regulierung den Wettbewerb im Bereich der Telekommunikation und leistungsfähige Telekommunikationsinfrastrukturen zu fördern und flächendeckend angemessene und ausreichende Dienstleistungen zu gewährleisten. Das TKG ist mithin ein Aufsichtsgesetz, es dient der Regulierung des Wettbewerbs durch den Hoheitsträger und schafft in diesem Rahmen Regulierungsvorgabe und Rahmenbedingungen zum Schutze der Kunden. Dies deckt sich auch mit dem Auskunftsrecht aus § 174 Abs. 1, 3, TKG, dass ein Auskunftsrecht für Behörden zur Verhütung und Verfolgung von Straftaten schafft. Demgegenüber enthält das TDDDG nicht nur Aufsichts- und Regulierungsbestimmungen und regelt auch nicht nur Rechte von Kunden der betroffenen digitalen Dienste, sondern schafft durch § 21 TDDDG ein Auskunftsrecht für jede Person, die in einem absolut geschützten Recht verletzt wurde. Es geht dabei nicht um eine Regulierung von Telekommunikationsdiensten, sondern allgemein um die Erleichterung der Verfolgung zivilrechtlicher Ansprüche jedes Verletzten, ein Aspekt, der gerade nicht Bestandteil der Regelungen des TKG ist. Ersichtlich handelt es sich bei dem Anspruch aus § 21 TDDDG um einen Hilfsanspruch zur Verfolgung zivilrechtlicher Ansprüche, ein derartiger Anspruch war und ist niemals Gegenstand des TKG gewesen und fügt sich in dieses auch gar nicht ein. Der Gesetzgeber hat vielmehr mit § 21 TDDDG einen weiteren Anspruch geschaffen, der nach Einschätzung des Gerichts selbstständig neben den Bestimmungen des TKG besteht. Es ist auch kein Widerspruch, dass die Beteiligte insofern potentiell zwei Ansprüchen ausgesetzt ist, einmal einem solchen der Strafverfolgungsbehörden aus § 174 TKG und dann einem solchen des Verletzten aus § 21 TDDDG. Vielmehr stehen beide selbstständig nebeneinander, was schon deswegen einleuchtet, weil straf- und zivilrechtliche Verfolgung nicht zwingend parallel erfolgen müssen. So kann es etwa vorkommen, dass die Strafverfolgungsbehörden ein Verfahren wegen bestimmten Delikten aus Opportunitätsgesichtspunkten einstellen, die verletzte Privatperson aber dennoch zivilrechtliche Ansprüche geltend machen kann und will. Insofern vermag sich das Gericht daher auch nicht der von der Beteiligten in Bezug genommenen Rechtsprechung anzuschließen. Dies umso weniger, als diese noch zu dem alten § 21 TTDSG erging, der Gesetzgeber aber nunmehr die Definitionen dahingehend geändert hat, dass nicht mehr jeder „Anbieter von Telemedien“, sondern jeder „Anbieter digitaler Dienste“ verpflichtet wird. Das Gericht geht nicht davon aus, dass hier nur eine „redaktionelle Änderung“ des TDDDG erfolgt ist, sondern vielmehr eine bewusste begriffliche Klarstellung dahingehend, dass die Verbindung zum TKG und zur Telekommunikation bewusst abgeschwächt wurde, um zu verdeutlichen, dass allgemein „digitale Dienste“ verpflichtet werden sollen. Dies ergibt sich gerade auch aus den von der Beteiligten zitierten Ausführungen im Rahmen der Gesetzesbegründung. Es mag sein, dass der Begriff „Telemedien“ in dem Begriff „digitaler Dienst“ aufgeht, dass bedeutet aber nicht, dass damit keine Klarstellung verbunden sein soll, anderenfalls man den alten Begriff auch nicht hätte ersetzen müssen. Im Übrigen hat der Gesetzgeber gerade nicht aufgeführt, dass Telekommunikationsdienste nicht von § 21 TDDDG erfasst sein sollen, wovon aber auszugehen gewesen wäre.
B. Das Gericht folgt auch nicht der Ansicht der Beteiligten, eine Kettenauskunft sei nicht zulässig und ein Auskunftsanspruch gemäß § 21 TDDDG setzte zwingend voraus, dass die Äußerung, die Grundlage für das Auskunftsersuchen ist, über den Dienst der Beteiligten veröffentlicht wurde. Eine solche „Verbindung zwischen dem Anbieter des digitalen Dienstes und der Verbreitung des rechtsverletzenden Inhalts in dem digitalen Dienst“ lässt sich § 21 TDDDG weder dem Wortlaut nach, noch systematisch, noch historisch entnehmen. Das Gericht geht vielmehr davon aus, dass der Gesetzgeber ganz bewusst, gerade keine solche Verbindung aufgenommen hat. Denn Sinn und Zweck des Auskunftsanspruchs ist es, dem Anspruchsteller eine effektive Möglichkeit zur Verfolgung seiner zivilrechtlichen Ansprüche zu schaffen. Es ist aber allgemein bekannt, dass viele Plattformen, auf denen rechtsverletzende Äußerungen getätigt werden, nur rudimentäre Nutzungsdaten erheben, vorrangig mit dem Argument, den Nutzern müsse eine anonyme Äußerung ermöglicht werden. Wollte man, wie die Beteiligte, davon ausgehen, ein Anspruch bestehe nur bei einer Verbindung zwischen Äußerung und Dienst, wäre der Anspruch aus § 21 TDDDG aber regelmäßig wertlos, weil als Nutzerdaten häufig (ganz bewusst) nur Fantasie-Daten hinterlegt sind und einziges weiteres hinterlegte Detail eine zumeist zur Authentifizierung verwendete E-Mail-Adresse ist. Der Verletzte würde also in den meisten Fällen für ihn nutzlose Daten erhalten, die ihm eine Verfolgung seiner Ansprüche gerade nicht ermöglichen. Für eine effektive Verfolgung muss es dem Verletzen daher möglich sein, die Datenkette bis zu ihrem Ursprung zurückzuverfolgen und die erforderlichen Daten auch von Anbietern zu verlagern, bei denen die maßgeblichen Inhalte nicht unmittelbar verbreitet wurden. Auch diesem Anbieter entstehen hierdurch im Übrigen keine Nachteile, da die Kosten des Auskunftsverfahrens gemäß § 21 Abs. 3 Satz 7 TDDDG in jedem Fall durch den Antragsteller zu tragen sind.
Nicht stichhaltig ist auch der Einwand der Beteiligten, die Antragstellerin sei auf eine Auskunft nicht angewiesen, da sie sich an die Strafverfolgungsbehörden wenden könne, die ihrerseits Auskünfte gemäß § 174 TKG einholen könnten. Es wurde oben bereits ausgeführt, dass straf- und zivilrechtliche Verfolgung nicht notwendigerweise parallel laufen und die Strafverfolgungsbehörden unter bestimmten Umständen (ggf. auch ohne Durchführung weiterer Ermittlungen) von der Verfolgung absehen können, trotzdem aber zivilrechtliche Ansprüche bestehen können.
C. Die Voraussetzungen des § 21 Abs. 2 TDDDG sind im Hinblick auf die beiden verfahrensgegenständlichen Bewertungen erfüllt. Es handelt sich um rechtswidrige Inhalte, die den Tatbestand der §§ 185-187 StGB erfüllen und nicht gerechtfertigt sind.
AA. Die Sternebewertungen als solche stuft das Gericht mit der ganz herrschenden Meinung in der Rechtsprechung nicht als Tatsachenbehauptung, sondern als Meinungsäußerung ein (vgl. hierzu OLG Köln Urt. v. 26.6.2019 – 15 U 91/19, GRUR-RS 2019, 51308 Rn. 25, mit zahlreichen Nachweisen aus der Rechtsprechung). Die Bewertung mit Sternen ist ihrer Natur nach von Elementen der Stellungnahme, des Dafürhaltens und Meinens geprägt. Daran ändert sich auch nicht deswegen etwas, wenn die Sternebewertungen, wie hier, in Bezug auf Unterkategorien wie „Karriere/Weiterbildung“, „Arbeitsatmosphäre“, „Work-Life-Balance“ usw. verteilt werden. Denn es bleibt dabei, dass auch hinsichtlich dieser Unterkategorien keine Tatsachen behauptet werden, sondern lediglich eine Meinung geäußert wird. Das wird schon daraus ersichtlich, dass die Einschätzung, wie eine Arbeitsatmosphäre, Arbeitsbedingungen oder der Umgang mit bestimmten Themen zu bewerten sind, der Sache nach höchst subjektiv sind; es gibt diesbezüglich keine allgemeingültigen Parameter, die eines Wahrheitsbeweises zugänglich wären. Entgegenzutreten ist insofern auch der Ansicht der Antragstellerin, die Bewertung mit nur einem Stern bei Unterkategorien wie „Karriere/Weiterbildung“, „Umwelt-/Sozialbewusstsein“, „Vorgesetztenverhalten“, „Kommunikation“ usw. bringe zum Ausdruck, für diese Themen gebe es bei der Antragstellerin generell kein Bewusstsein. Nach dem Verständnis des Gerichts wird damit vielmehr lediglich zum Ausdruck gebracht, dass der Verfasser der Bewertung diese Aspekte für sich (subjektiv) als unzureichend erlebt hat.
Das Gericht verkennt nicht, dass die Sternebewertungen auch einen Tatsachenkern dahingehend enthalten, dass die Ersteller der Bewertungen angeben, sie seien (Ex-) Angestellte/Arbeitnehmer bei der Antragstellerin gewesen und somit im Rahmen eines Arbeitsverhältnisses mit der Antragstellerin in Kontakt gekommen. Dies ändert nach Einschätzung des Gerichts aber nichts daran, dass bei den Bewertungen das Element der Meinungsäußerungen deutlich überwiegt. Das Tatsachenelement tritt hier hinsichtlich die der Meinungsäußerung unterfallende wertende Meinungsäußerung völlig zurück (MüKoStGB/Regge/Pegel, 4. Aufl. 2021, StGB § 186 Rn. 13).
BB. Inhaltlich enthalten die beiden Bewertungen Anmerkungen, die zumindest teilweise die Tatbestände der §§ 185, 186 StGB verwirklichen.
Die EU-Kommission kommt nach vorläufiger Einschätzung zu dem Ergebnis, dass die Kontoverifizierung durch X / Twitter allein durch Abschluss eines kostenpflichtigen Abos gegen den Digital Services Act (DSA) verstößt.
Die Pressemitteilung der EU-Kommission: Kommission übermittelt X vorläufige Feststellungen wegen Verstoßes gegen das Gesetz über digitale Dienste
Die Kommission hat X heute von ihrer vorläufigen Auffassung in Kenntnis gesetzt, dass sie in Bereichen im Zusammenhang mit Dark Patters, Transparenz der Werbung und Datenzugang für Forscher gegen das Gesetz über digitale Dienste verstößt.
Transparenz und Rechenschaftspflicht in Bezug auf die Moderation von Inhalten und Werbung stehen im Mittelpunkt des Gesetzes über digitale Dienste. Auf der Grundlage einer eingehenden Untersuchung, die unter anderem die Analyse interner Unternehmensunterlagen, Befragungen von Sachverständigen und die Zusammenarbeit mit den nationalen Koordinatoren für digitale Dienste umfasste, hat die Kommission in drei Fällen vorläufig festgestellt, dass die Vorschriften nicht eingehalten wurden:
Erstens gestaltet und betreibt X seine Schnittstelle für die „verifizierten Konten“ mit dem „Blue Checkmark“ in einer Weise, die nicht der Branchenpraxis entspricht und die Nutzer täuscht. Da jedermann einen solchen „überprüften“ Status abonnieren kann, beeinträchtigter die Fähigkeit der Nutzer, freie und fundierte Entscheidungen über die Authentizität der Konten und die Inhalte, mit denen sie interagieren, zu treffen. Es gibt Belege für motivierte böswillige Akteure, die das „verifizierte Konto“ missbrauchen, um Nutzer zu täuschen.
Zweitens hält X nicht die erforderliche Transparenz in Bezug auf Werbung ein, da es kein durchsuchbares und zuverlässiges Werbearchiv bietet, sondern Gestaltungsmerkmale und Zugangsbarrieren einrichtet, die das Repository für seine Transparenzzwecke gegenüber den Nutzern ungeeignet machen. Insbesondere ermöglicht das Design nicht die erforderliche Überwachung und Erforschung neu auftretender Risiken, die sich aus dem Online-Vertrieb von Werbung ergeben.
Drittens gewährt X Forschern keinen Zugang zu seinen öffentlichen Daten gemäß den im Gesetz über digitale Dienste festgelegten Bedingungen. Insbesondere untersagt X förderfähigen Forschern, unabhängig auf seine öffentlichen Daten zuzugreifen, z. B. durch Verschrotten, wie in seinen Nutzungsbedingungen angegeben. Darüber hinaus scheint das Verfahren von X, förderfähigen Forschern Zugang zu seiner Anwendungsprogrammierschnittstelle (API) zu gewähren, Forscher von der Durchführung ihrer Forschungsprojekte abzuhalten oder ihnen keine andere Wahl zu lassen, als unverhältnismäßig hohe Gebühren zu zahlen.
Mit der Übermittlung der vorläufigen Feststellungen teilt die Kommission X ihren vorläufigen Standpunkt mit, dass sie gegen das Gesetz über digitale Dienste verstößt. Dies greift dem Ergebnis der Untersuchung nicht vor, da X nun die Möglichkeit hat, seine Verteidigungsrechte auszuüben, indem sie die Unterlagen in der Untersuchungsakte der Kommission prüft und schriftlich auf die vorläufigen Feststellungen der Kommission antwortet. Parallel dazu wird das Europäische Gremium für digitale Dienste konsultiert.
Sollte sich die vorläufige Auffassung der Kommission letztlich bestätigen, würde die Kommission einen Verstoßbeschluss erlassen, in dem sie feststellt, dass X gegen die Artikel 25, 39 und 40 Absatz 12 des Gesetzes über digitale Dienste verstößt. Eine solche Entscheidung könnte zu Geldbußen von bis zu 6 % des weltweiten Jahresumsatzes des Anbieters führen und den Anbieter anweisen, Maßnahmen zu ergreifen, um den Verstoß zu beheben. Eine Entscheidung wegen Nichteinhaltung kann auch einen erweiterten Überwachungszeitraum auslösen, um die Einhaltung der Maßnahmen sicherzustellen, die der Anbieter zu ergreifen beabsichtigt, um den Verstoß zu beheben. Die Kommission kann auch Zwangsgelder verhängen, um eine Plattform zur Einhaltung der Vorschriften zu zwingen.
Hintergrund
X, vormals Twitter, wurde am 25. April 2023 im Rahmen des EU-Gesetzes über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem sie erklärt hatte, monatlich mehr als 45 Millionen aktive Nutzer in der EU zu erreichen.
Am 18. Dezember 2023 leitete die Kommission ein förmliches Verfahren ein, um zu prüfen, ob X möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit der Verbreitung illegaler Inhalte und der Wirksamkeit der zur Bekämpfung der Informationsmanipulation ergriffenen Maßnahmen zusammenhängen, für die die Untersuchung fortgesetzt wird, sowie Dark Patterns, Transparenz der Werbung und Datenzugang für Forscher, die Gegenstand der heute angenommenen vorläufigen Feststellungen sind.
Die Kommission hat auch ein Whistleblower-Tool eingerichtet, das es Mitarbeitern und anderen Personen mit Wissen ermöglicht, sich anonym mit der Kommission in Verbindung zu setzen, um zur Überwachung der Einhaltung durch die Kommission durch benannte sehr große Online-Plattformen/VLOSE beizutragen.
Darüber hinaus hat die Kommission im Februar und April 2024 ein förmliches Verfahren gegen TikTok, AliExpress im März 2024 und Meta im April und Mai 2024 eingeleitet.
Das OLG Frankfurt hat entschieden, dass Plattformbetreiber wie Facebook / Meta bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.
Die Pressemitteilung des Gerichts: Facebook - Löschverpflichtung von rechtswidrig geposteten Inhalten
Nach Kenntnis rechtswidriger geposteter Inhalte muss Plattformbetreiber auch sinn- bzw. kerngleiche Posts löschen.
Die konkrete Kenntnis eines rechtsverletzenden Posts (hier: Falschzitat) verpflichtet einen Plattformbetreiber - hier Meta -, auch andere sinngleiche Äußerungen zu löschen. Der Umstand, dass die Bewertung automatisiert aufgefundener sinngleicher Äußerungen teilweise einer kontextgebundenen menschlich-händischen Überprüfung bedarf, führt nicht zur Unzumutbarkeit. Das Oberlandesgericht Frankfurt am Main (OLG) bestätigte mit heute verkündeter Entscheidung den eingeklagten Unterlassungsanspruch.
Die Klägerin ist Politikerin und für die Fraktion Bündnis90/Die Grünen im Bundestag. Sie wendet sich u.a. gegen ein sog. Meme, das über die von der Beklagten betriebene Plattform Facebook gepostet wurde. Es zeigt die Klägerin mit Bild und unter Nennung ihres Vor- und Zunamens sowie der als Zitat gekennzeichneten Äußerung: „Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen!“. Diese Äußerung hat die Klägerin unstreitig nie getätigt.
Das Landgericht hatte die Beklagte hinsichtlich dieses Meme verpflichtet, es zu unterlassen, identische oder kerngleiche Inhalte auf der Plattform öffentlich zugänglich zu machen und sie zudem zur Zahlung einer Geldentschädigung in Höhe von 10.000,00 € verurteilt.
Die hiergegen eingelegte Berufung der Beklagten hatte nur hinsichtlich der Verurteilung zur Zahlung einer Geldentschädigung, nicht aber hinsichtlich der Unterlassungsverpflichtung Erfolg.
Das Landgericht habe der Klägerin zutreffend einen Unterlassungsanspruch zuerkannt, bestätigte das OLG. Das Falschzitat stelle einen rechtswidrigen Eingriff in das allgemeine Persönlichkeitsrecht der Klägerin dar. Es verletze sie in ihrem Recht am eigenen Wort.
Die Beklagte hafte als so genannte mittelbar verantwortliche Störerin auch dafür, dass sie es zu unterlassen habe, alle weiteren identischen oder kern- bzw. sinngleichen Posts zu diesem Post zu löschen, betonte das OLG. Durch die mit anwaltlichem Schreiben erfolgte Übermittlung der konkreten URLs hinsichtlich der von der Klägerin angegriffenen Posts habe die Beklagte unmittelbar Kenntnis von der Rechtsverletzung erlangt. Zudem werde in dem Schreiben definiert, was die Klägerin unter sinngleich verstehe. Diese Kenntnis und Information habe eine Prüf- und Verhaltenspflicht hinsichtlich der Existenz sinngleicher Inhalte ausgelöst, die ebenfalls zu löschen gewesen wären.
Die Beklagte treffe - nach der E-Commerce-Richtlinie - zwar keine allgemeine Überwachungs- und aktive Nachforschungspflicht hinsichtlich rechtswidriger Inhalte. Die konkrete Kenntnis der Rechtsverletzung verpflichte die Beklagte jedoch, künftig derartige Störungen zu verhindern. Dies gelte nicht nur für wortgleiche Inhalte, sondern auch dann, wenn die darin enthaltenen Mitteilungen sinngemäß ganz oder teilweise Gegenstand einer erneuten Äußerung seien.
Bei der Nachforschung nach derartigen sinngleichen Äußerungen müsse zwar nach der Rechtsprechung des EuGH aus Gründen der Zumutbarkeit auf „automatisierte Techniken und Mittel“ zurückgegriffen werden können. Dies sei hier jedoch auch grundsätzlich der Fall. Der Umstand, dass es in Fällen der Wiedergabe des Meme mit eigenen Zusätzen (sog. Caption) einer Sinndeutung bedürfe, so dass nicht rein automatisiert vorgegangen werden könne, stehe dem nicht entgegen. Der Senat fordere keine - europarechtswidrige - autonome rechtliche Prüfung des Inhalts solcher Posts, die sich vom Ursprungspost lösen. Der Beklagten werde nur die Beurteilung auferlegt, ob die Unterschiede aufgrund der abweichenden Gestaltung gegenüber dem Meme nach dem Verständnis eines durchschnittlichen Empfängers bewirkten, dass erkennbar werde, dass ein Falschzitat vorliege oder nicht. Diese menschlich-händische Einzelfallbewertung sei in Kombination mit technischen Verfahren automatisch erkannter bereits hochgeladener Inhalte zumutbar. Im Übrigen könne mithilfe des Einsatzes sog. KI-Systeme eine weitere automatische Vorfilterung erfolgen.
Der Klägerin stehe jedoch kein Anspruch auf Geldentschädigung zu. Dabei könne offenbleiben, ob bei einer hartnäckigen Verweigerung, einem Unterlassungsanspruch nachzukommen, ein solcher Anspruch begründet sei. Hier fehle es jedenfalls an einer solchen hartnäckigen Verweigerung.
Die Entscheidung ist nicht rechtskräftig. Der Senat hat wegen der grundsätzlichen Bedeutung der Frage, ob und unter welchen Voraussetzungen die Beklagte als sog. Hostprovider eine Prüf- und Verhaltenspflicht in Bezug auf sinngleiche Inhalte treffe, die Revision zugelassen.
Oberlandesgericht Frankfurt am Main, Urteil vom 25.1.2024, Az. 16 U 65/22
(vorausgehend LG Frankfurt am Main, Urteil vom 8.4.2022, Az. 2-03 O 188/21)
Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts (DSA) - Stand 15.01.2024 vorgelegt.
Aus dem Entwurf: Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze
A. Problem und Ziel
Am 16. November 2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „DSA“ [= Digital Services Act]). Der DSA gilt ab dem 17. Februar 2024. Mit dem DSA wird ein horizontaler Rechtsrahmen, also ein einheitlicher Rechtsrahmen für alle Kategorien digitaler Vermittlungsdienste, geschaffen.
Ziel des DSA ist es, für alle Mitgliedstaaten der Europäischen Union (EU) einheitliche horizontale Regeln festzulegen für ein sicheres und vertrauenswürdiges Online-Umfeld, in dem die in der EU-Grundrechtecharta verankerten Grundrechte, darunter der Verbraucherschutz, wirksam geschützt werden. Zudem soll eine starke und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über digitale Vermittlungsdienste in der EU sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der auch Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennimmt und Zugriff auf die Daten der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) erhält. Ergänzend regelt der DSA das Verhältnis der digitalen Vermittlungsdienste zu ihren Nutzerinnen und Nutzern neu. So müssen Hostingdiensteanbieter Melde- und Abhilfeverfahren für illegale Inhalte vorhalten. Zudem werden Hostingdiensteanbieter zu Maßnahmen gegen illegale Aktivitäten und Anbieter von Online-Plattformen zu Maßnahmen gegen eine mögliche missbräuchliche Verwendung der Melde- und Abhilfeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. OnlineMarktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten wollen, vorher überprüfen. Ferner sieht der DSA im Bereich kommerzieller Werbung Transparenzverpflichtungen sowie ein Verwendungsverbot bestimmter personenbezogener Daten vor sowie für sehr große Online-Plattformen bzw. sehr große Online-Suchmaschinen strengere Verpflichtungen als für kleine und mittlere Anbieter. Dies alles soll die Sicherheit des digitalen Umfelds fördern. Schließlich wird ein Rahmen für die Umsetzung, Zusammenarbeit, Sanktionierung und Durchsetzung des DSA festgelegt, der konkrete, an die Mitgliedstaaten gerichtete Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.
B. Lösung
Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetz) wird der nationale Rechtsrahmen an den Vorgaben des DSA ausgerichtet und entsprechend angepasst.
Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste entweder anzupassen oder aufzuheben.
Der Gesetzentwurf schafft vor allem einen Rechtsrahmen für die behördliche Überwachung der Einhaltung von DSA-Vorschriften durch Anbieter von Vermittlungsdiensten. Zu diesem Zweck wird insbesondere eine zentrale Stelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und für die Durchsetzung des DSA benannt: Die Koordinierungsstelle für digitale Dienste wird innerhalb der zuständigen Bundesnetzagentur eingerichtet, um eine wirksame und zugleich unabhängige Aufsicht über digitale Vermittlungsdienste zu gewährleisten. Der vorliegende Entwurf regelt auch Organisation und Funktion der Koordinierungsstelle für digitale Dienste. Ergänzend werden Sonderzuständigkeiten für die Bundeszentrale für Kinder- und Jugendmedienschutz, für nach den medienrechtlichen Bestimmungen der Länder benannte Stellen und für den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit geschaffen. Zudem werden – wo nicht bereits durch den DSA geregelt – Befugnisse der vorgenannten Stellen festgelegt. Der Gesetzentwurf regelt ebenfalls die Zusammenarbeit der jeweils zuständigen Stellen mit weiteren Behörden, deren Zuständigkeit im Einzelfall berührt werden kann. Der vom DSA vorgegebene Spielraum für Sanktionen bei Verstößen gegen den DSA wird durch diesen Gesetzentwurf ausgeschöpft. Ergänzend werden erforderliche Gesetzesänderungen vorgenommen, um nationales Recht an die Terminologie des DSA anzupassen.
Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.
Die Pressemitteilung des EU-Kommission: The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.
On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.
The proceedings will focus on the following areas:
The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.
The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.
The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.
A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.
If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.
These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.
Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.
The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.
The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.
The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).
Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.
As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:
Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.
Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.
Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data.
Das Bundesarbeitsgericht hat entschieden, dass stark beleidigende Äußerungen über Vorgesetzte und Kollegen in einer privaten WhatsApp-Chatgruppe eine außerordentliche Kündigung rechtfertigen können.
Die Pressemitteilung des BAG: Kündigung wegen Äußerungen in einer Chatgruppe
Sitzungsergebnis
Ein Arbeitnehmer, der sich in einer aus sieben Mitgliedern bestehenden privaten Chatgruppe in stark beleidigender, rassistischer, sexistischer und zu Gewalt aufstachelnder Weise über Vorgesetzte und andere Kollegen äußert, kann sich gegen eine dies zum Anlass nehmende außerordentliche Kündigung seines Arbeitsverhältnisses nur im Ausnahmefall auf eine berechtigte Vertraulichkeitserwartung berufen.
Der bei der Beklagten beschäftigte Kläger gehörte seit 2014 einer Chatgruppe mit fünf anderen Arbeitnehmern an. Im November 2020 wurde ein ehemaliger Kollege als weiteres Gruppenmitglied aufgenommen. Alle Gruppenmitglieder waren nach den Feststellungen der Vorinstanz „langjährig befreundet“, zwei miteinander verwandt. Neben rein privaten Themen äußerte sich der Kläger – wie auch mehrere andere Gruppenmitglieder – in beleidigender und menschenverachtender Weise ua. über Vorgesetzte und Arbeitskollegen. Nachdem die Beklagte hiervon zufällig Kenntnis erhielt, kündigte sie das Arbeitsverhältnis des Klägers außerordentlich fristlos.
Beide Vorinstanzen haben der vom Kläger erhobenen Kündigungsschutzklage stattgegeben. Die Revision der Beklagten hatte vor dem Zweiten Senat des Bundesarbeitsgerichts Erfolg. Das Berufungsgericht hat rechtsfehlerhaft eine berechtigte Vertraulichkeitserwartung des Klägers betreffend der ihm vorgeworfenen Äußerungen angenommen und das Vorliegen eines Kündigungsgrundes verneint. Eine Vertraulichkeitserwartung ist nur dann berechtigt, wenn die Mitglieder der Chatgruppe den besonderen persönlichkeitsrechtlichen Schutz einer Sphäre vertraulicher Kommunikation in Anspruch nehmen können. Das wiederum ist abhängig von dem Inhalt der ausgetauschten Nachrichten sowie der Größe und personellen Zusammensetzung der Chatgruppe. Sind Gegenstand der Nachrichten – wie vorliegend – beleidigende und menschenverachtende Äußerungen über Betriebsangehörige, bedarf es einer besonderen Darlegung, warum der Arbeitnehmer berechtigt erwarten konnte, deren Inhalt werde von keinem Gruppenmitglied an einen Dritten weitergegeben.
Das Bundesarbeitsgericht hat das Berufungsurteil insoweit aufgehoben und die Sache an das Landesarbeitsgericht zurückverwiesen. Dieses wird dem Kläger Gelegenheit für die ihm obliegende Darlegung geben, warum er angesichts der Größe der Chatgruppe, ihrer geänderten Zusammensetzung, der unterschiedlichen Beteiligung der Gruppenmitglieder an den Chats und der Nutzung eines auf schnelle Weiterleitung von Äußerungen angelegten Mediums eine berechtigte Vertraulichkeitserwartung haben durfte.
Bundesarbeitsgericht, Urteil vom 24. August 2023 – 2 AZR 17/23 –
Vorinstanz: Landesarbeitsgericht Niedersachsen, Urteil vom 19. Dezember 2022 – 15 Sa 284/22 –
Aus dem Entwurf: A. Problem und Ziel
Am 16. November 2022 ist die Verordnung des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „Digital Services Act“ oder „DSA“). Die Verordnung gilt ab dem 17. Februar 2024. Mit der Verordnung wird ein horizontaler Rechtsrahmen für digitale Dienste geschaffen.
Ziel des DSA ist es, einheitliche horizontale Regeln festzulegen für ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld. Zudem soll eine robuste und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über Online-Plattformen in Europa sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennehmen und Zugriff auf die Daten der Plattformen erhalten soll. Ergänzend regelt der DSA das Verhältnis der Plattformen zu ihren Nutzerinnen und Nutzern neu. Die Anbieter müssen ein Melde- und Beschwerdeverfahren für illegale Inhalte vorhalten. Zudem werden Online-Plattformen zu Maßnahmen gegen illegale Aktivitäten und Missbrauch der Meldeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. Online-Marktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten, vorher überprüfen. Ferner sieht der DSA Transparenzverpflichtungen für kommerzielle Werbung vor, sowie strengere Verpflichtungen für sehr große Plattformen / Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) als für kleine und mittlere Anbieter vor. Dies alles soll ein sicheres digitales Umfeld fördern. Schließlich wird ein Rahmen für die Umsetzung, die Zusammenarbeit, für Sanktionen und die Durchsetzung des DSA angelegt, der konkrete, an die Mitgliedstaaten gerichteten Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.
B. Lösung
Der DSA ist im nationalen Recht durchzuführen und das nationale Recht ist anzupassen. Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetzes, oder DDG) ist der nationale Rechtsrahmen auf die Vorgaben des DSA auszurichten und anzupassen. Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste, abzulösen. Zur Durchführung des DSA sind insbesondere die zuständige nationale Koordinierungsstelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und zur Durchsetzung des DSA zu benennen, Sanktionsvorschriften zu erlassen und erforderliche Gesetzesänderungen vorzunehmen
Das LG Frankfurt hat wie erwartet entschieden, dass Twitter wie Facebook bei ehrverletzenden Inhalten auch kerngleiche Tweets und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.
Die Pressemitteilung des Gerichts: Persönlichkeitsrecht - Ehrverletzung durch herabwürdigenden Tweet
Twitter muss bei einem konkreten Hinweis auf eine Persönlichkeitsrechtsverletzung auch kerngleiche Äußerungen entfernen.
Das Landgericht Frankfurt am Main hat heute entschieden: Betroffene können von Twitter verlangen, dass falsche oder ehrverletzende Tweets über sie gelöscht werden. Auch sinngemäße Kommentare mit identischem Äußerungskern muss Twitter entfernen, sobald es von der konkreten Persönlichkeitsrechtsverletzung Kenntnis erlangt.
Im September 2022 erschienen auf Twitter diverse Kommentare, in denen wahrheitswidrig behauptet wurde, der Antisemitismusbeauftragte des Landes Baden-Württemberg habe „eine Nähe zur Pädophilie“ und er habe „einen Seitensprung gemacht“. Außerdem wurde über ihn verbreitet, er sei in „antisemitische Skandale“ verstrickt und er sei „Teil eines antisemitischen Packs“.
Die zuständige Pressekammer des Landgerichts Frankfurt am Main stellte in einem Eilverfahren fest, dass diese ehrenrührigen Behauptungen unwahr sind. Die Bezeichnung als Antisemit sei zwar zunächst eine Meinungsäußerung. Sie sei aber jedenfalls in dem gewählten Kontext rechtswidrig, denn sie trage nicht zur öffentlichen Meinungsbildung bei und ziele erkennbar darauf ab, in emotionalisierender Form Stimmung gegen den Antisemitismusbeauftragten zu machen.
Nachdem der Antisemitismusbeauftragte die Entfernung dieser Kommentare verlangt hat, hätte Twitter ihre Verbreitung unverzüglich unterlassen und einstellen müssen. Darüber hinaus entschied die Kammer: „Das Unterlassungsgebot greift nicht nur dann, wenn eine Äußerung wortgleich wiederholt wird, sondern auch, wenn die darin enthaltenen Mitteilungen sinngemäß erneut veröffentlicht werden.“ Unter weiter: „Die Äußerungen werden nicht in jeglichem Kontext untersagt. Betroffen sind nur solche Kommentare, die als gleichwertig anzusehen sind und die trotz gewisser Abweichungen einen identischen Äußerungskern aufweisen.“
Twitter werde damit auch keine allgemeine Monitoring-Pflicht im Hinblick auf seine rund 237 Mio. Nutzer auferlegt. Eine Prüfpflicht bestehe nämlich nur hinsichtlich der konkret beanstandeten Persönlichkeitsrechtsverletzung. „Das deutsche Recht mutet jedem Verpflichteten eines Unterlassungsgebots zu, selbst festzustellen, ob in einer Abwandlung das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt und damit kerngleich ist. Twitter befindet sich damit in keiner anderen Situation, als wenn eine bestimmte Rechtsverletzung gemeldet wird. Auch in diesem Fall muss Twitter prüfen, ob diese Rechtsverletzung eine Löschung bedingt oder nicht“, so die Vorsitzende in der Urteilsbegründung.
Als zulässig erachtete die Kammer indes die Äußerung eines Nutzers, wonach der Antisemitismusbeauftragte des Landes Baden-Württemberg in die jährlich vom Wiesenthal-Zentrum in Los Angeles veröffentlichte Liste der größten Antisemiten weltweit aufgenommen worden ist. Unabhängig davon, ob die Aufnahme in diese Liste gerechtfertigt sei, dürfe darüber informiert werden. Dagegen müsse sich der Antisemitismusbeauftragte im öffentlichen Meinungskampf zur Wehr setzen.
Das Urteil (Az. 2-03 O 325/22) ist nicht rechtskräftig. Es kann mit der Berufung zum Oberlandesgericht Frankfurt am Main angefochten werden. Die Entscheidung wird in Kürze unter www.lareda.hessenrecht.hessen.de abrufbar sein.
Ergänzender Hinweis:
Dieselbe Pressekammer des Landgerichts Frankfurt am Main hatte mit Urteil vom 8.4.2022 (Az.: 2-03 O 188/21) entschieden, dass in einer Wort-Bild-Kombination (sog. „Meme“) unterge-schobene Falschzitate auf Facebook auch ohne erneuten Hinweis gelöscht werden müssen, wenn sie einen kerngleichen Inhalt aufweisen. Geklagt hatte dort MdB Renate Künast.
Das LG München hat entschieden, dass die Bezeichnung eines Wissenschaftlers in einem Flyer als "Gollum" eine Verletzung des allgemeinen Persönlichkeitsrechts darstellen kann und einen entsprechenden Unterlassungsanspruch begründet.
EU-Parlament und EU-Rat haben sich über den Digital Services Act bzw. das Gesetz über digitale Dienste geeinigt.
Die Pressemitteilung der EU:
Digital Services Act: agreement for a transparent and safe online environment
- Access to platforms’ algorithms now possible
- Online platforms will have to remove illegal products, services or content swiftly after they have been reported
- Protection of minors online reinforced; additional bans on targeted advertising for minors as well as targeting based on sensitive data
- Users will be better informed how content is recommended to them
EU negotiators agree on landmark rules to effectively tackle the spread of illegal content online and protect people's fundamental rights in the digital sphere.
On Friday, Parliament and Council reached a provisional political agreement on the Digital Services Act (DSA). Together with the Digital Markets Act, the DSA will set the standards for a safer and more open digital space for users and a level playing field for companies for years to come.
More responsible online platforms
Under the new rules, intermediary services, namely online platforms - such as social media and marketplaces - will have to take measures to protect their users from illegal content, goods and services.
Algorithmic accountability: the European Commission as well as the member states will have access to the algorithms of very large online platforms;
Swift removal of illegal content online, including products, services: a clearer “notice and action” procedure where users will be empowered to report illegal content online and online platforms will have to act quickly;
Fundamental rights to be protected also online: stronger safeguards to ensure notices are processed in a non-arbitrary and non-discriminatory manner and with respect for fundamental rights, including the freedom of expression and data protection;
More responsible online marketplaces: they have to ensure that consumers can purchase safe products or services online, by strengthening checks to prove that the information provided by traders is reliable (“Know Your Business Customer” principle) and make efforts to prevent illegal content appearing on their platforms, including through random checks;
Victims of cyber violence will be better protected especially against non-consensual sharing (revenge porn) with immediate takedowns;
Penalties: online platforms and search engines can be fined up to 6% of their worldwide turnover. In the case of very large online platforms (with more that 45 million users), the EU Commission will have exclusive power to demand compliance;
Fewer burdens and more time to adapt for SMEs: longer period to apply the new rules will support innovation in the digital economy. The Commission will follow closely the potential economic effects of the new obligations on small businesses.
Safer online space for users
New transparency obligations for platforms will allow users to be better informed about how content is recommended to them (recommender systems) and to choose at least one option not based on profiling;
Online advertising: users will have better control over how their personal data are used. Targeted advertising is banned when it comes to sensitive data (e.g. based on sexual orientation, religion, ethnicity);
Protection of minors: platforms accessible to minors will have to take specific measures to protect them, including by fully banning targeted advertising;
Manipulating users’ choices through ‘dark patterns’ will be prohibited: online platforms and marketplaces should not nudge people into using their services, for example by giving more prominence to a particular choice or urging the recipient to change their choice via interfering pop-ups. Moreover, cancelling a subscription for a service should become as easy as subscribing to it;
Compensation: recipients of digital services will have a right to seek redress for any damages or loss suffered due to infringements by platforms.
Harmful content and disinformation
Very large online platforms will have to comply with stricter obligations under the DSA, proportionate to the significant societal risks they pose when disseminating illegal and harmful content, including disinformation.
Very large online platforms will have to assess and mitigate systemic risks and be subject to independent audits each year. In addition, those large platforms that use so-called “recommender systems” (algorithms that determine what users see) must provide at least one option that is not based on profiling;
Special measures in times of crisis: when a crisis occurs, such as a public security or health threat, the Commission may require very large platforms to limit any urgent threats on its platforms. These specific actions are limited to three months.
Quote
“The Digital Services Act will set new global standards. Citizens will have better control over how their data are used by online platforms and big tech-companies. We have finally made sure that what is illegal offline is also illegal online. For the European Parliament, additional obligations on algorithmic transparency and disinformation are important achievements,” said rapporteur Christel Schaldemose (DK, S&D). “These new rules also guarantee more choice for users and new obligations for platforms on targeted ads, including bans to target minors and restricting data harvesting for profiling.”
Next steps
The text will need to be finalised at technical level and verified by lawyer-linguists, before both Parliament and Council give their formal approval. Once this process is completed, it will come into force 20 days after its publication in the EU Official Journal and the rules will start to apply 15 months later.
From 23 to 27 May, a delegation from the EP’s Internal Market Committee will visit several company headquarters (Meta, Google, Apple and others) in Silicon Valley to discuss in person the Digital Services Act package, and other digital legislation in the pipeline, and hear the position of American companies, start-ups, academia and government officials.
Das LG Frankfurt hat entschieden, dass der Betreiber eines sozialen Netzwerks (hier: Facebook / Meta) bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.
Die Pressemitteilung des Gerichts:
Ehrverletzung durch Falschzitat in sozialem Netzwerk
Diensteanbieter muss Varianten mit kerngleichem Inhalt ohne erneuten Hinweis sperren.
Die Bundestagsabgeordnete Renate Künast kann verlangen, dass eine bestimmte Wort-Bild-Kombination (sog. „Meme“) mit einem ihr untergeschobenen Falschzitat auf Facebook gesperrt wird. Auch Varianten dieses Memes mit kerngleichem Inhalt muss das soziale Netzwerk ohne erneuten Hinweis auf die jeweilige URL löschen. Renate Künast steht wegen der Verletzung ihres allgemeinen Persönlichkeitsrechts außerdem ein Schmerzensgeldanspruch gegen die Betreiberin von Facebook zu.
Auf Facebook erschien ein Bild von Renate Künast, dem folgendes Zitat beigefügt war: „Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen!“ Dieses Zitat ist falsch. Renate Künast hat die Äußerung nicht getätigt. Sie verlangte von Meta als Betreiberin von Facebook die Löschung des Eintrages. Der Post wurde außerdem in verschiedenen Varianten veröffentlicht, etwa mit verändertem Layout oder durch Erweiterung oder Weglassen von Textinhalten, durch Tippfehler oder durch Veränderung für das Auge nicht wahrnehmbarer Pixel. Diese Varianten haben eine andere URL als das ursprüngliche, von Renate Künast zunächst beanstandete Meme.
Vor dem Landgericht Frankfurt am Main hat Renate Künast darauf geklagt, dass Meta es unterlässt, Memes mit kerngleichem Inhalt auf Facebook öffentlich zugänglich machen zu lassen. Mit Urteil vom heutigen Tage hat eine Pressekammer des Landgerichts Frankfurt am Main ihrer Klage stattgegeben.
Durch das Falschzitat werde Renate Künast in ihren Persönlichkeitsrechten verletzt. Ein Diensteanbieter müsse zwar nicht ohne einen Hinweis alle ins Netz gestellten Beiträge auf eine eventuelle Rechtsverletzung prüfen. „Nachdem Renate Künast aber konkret darauf hingewiesen hatte, dass die ihr zugeschriebene Äußerung ein falsches Zitat ist, muss sie diesen Hinweis nicht für jeden weiteren Rechtsverstoß unter Angabe der URL wiederholen,“ erklärte die Vorsitzende der Kammer in der Urteilsbegründung. „Denn für die Beklagte ist unschwer erkennbar, dass es sich bei Varianten mit kerngleichem Inhalt um Falschzitate handelt.“ Und weiter: „Das deutsche Recht mutet jedem Verpflichteten eines Unterlassungsgebots zu, selbst festzustellen, ob in einer Abwandlung das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt und damit kerngleich ist. Das gilt auch in diesem Fall.“
Die Kammer stellte weiter fest: „Die Beklagte hat nicht dargetan, dass es ihr technisch und wirtschaftlich nicht zumutbar ist, ohne konkrete Bezeichnung der URL identische und ähnliche Memes zu erkennen und zwar auch, wenn für die Beurteilung eines abgewandelten Textes in einem Eintrag eine menschliche Moderationsentscheidung notwendig wird“.
In seinem Urteil billigte die Pressekammer Renate Künast außerdem eine Geldentschädigung in Höhe von 10.000 Euro zu. Meta treffe aufgrund der Veröffentlichung der persönlichkeitsrechts-verletzenden Posts eine Mitverantwortung. Denn Meta sei ihrer Verpflichtung nicht nachgekommen, ihre Plattform von weiteren Falschzitaten zu befreien. Die Schwere der Rechtsverletzungen rechtfertige das Schmerzensgeld. Renate Künast sei aufgrund der Falschzitate Anfeindungen ausgesetzt gewesen.
Die Kammer erklärte: „Die Glaubwürdigkeit ist das Kapital eines jeden Menschen, besonders einer Politikerin. Diese Glaubwürdigkeit wird durch das Zuschreiben von Falschzitaten beschädigt. Dies ist ehrenrührig und beeinträchtigt das Persönlichkeitsrecht der Falschzitierten. Falschzitate verzerren auch den Meinungskampf und sie schaden der Allgemeinheit.“
Das heutige Urteil (Aktenzeichen 2-03 O 188/21) ist nicht rechtskräftig.
Das BayObLG hat entschieden, dass die Bezeichnung eines Richters als "menschlicher Abschaum“ nicht von Meinungsfreiheit gedeckt und als Beleidigung strafbar ist.
Die Pressemitteilung des Gertichts:
Auch die Meinungsäußerungsfreiheit gegenüber Richtern hat ihre Grenzen
Der 4. Strafsenat des Bayerischen Obersten Landesgerichts, welcher seinen Sitz in Nürnberg hat, hatte sich in einer Revisionsentscheidung mit den Grenzen der Meinungsäußerungsfreiheit gegenüber Richtern auseinanderzusetzen.
Der Angeklagte hatte einen Richter am Amtsgericht als „menschlichen Abschaum“ bezeichnet. Das Amtsgericht Weißenburg hatte ihn mit Urteil vom 21.07.2021 wegen Beleidung in zwei Fällen schuldig gesprochen und zu einer Gesamtfreiheitsstrafe von 5 Monaten verurteilt, deren Vollstreckung nicht zur Bewährung ausgesetzt wurde.
Gegen dieses Urteil hat der Angeklagte Sprungrevision zum Bayerischen Obersten Landesgericht eingelegt. Mit Beschluss vom 3. Februar 2022 hat der 4. Strafsenat den Schuldspruch, also die Verurteilung wegen Beleidigung, bestätigt.
Der Senat geht davon aus, dass die Bezeichnung des Amtsrichters als „menschlichen Abschaum“ eine sogenannte Formalbeleidigung darstellt. In diesem Fall trete die Meinungsfreiheit ohne weitere Gewichtung und Einzelfallabwägung hinter den Ehrenschutz zurück. Der Angeklagte habe mit Vorbedacht und nicht nur in der Hitze einer Auseinandersetzung ein nach allgemeiner Auffassung besonders krasses, aus sich heraus herabwürdigendes Schimpfwort verwendet, das eine kontextunabhängig gesellschaftlich absolut missbilligte und tabuisierte Begrifflichkeit darstelle. Die verwendete Beschimpfung lasse das absolute Mindestmaß menschlichen Respekts vermissen und sei deshalb grundsätzlich nicht mit der Meinungsfreiheit vereinbar.
Lediglich ergänzend führt der Senat aus, dass auch bei einer Abwägung widerstreitender Interessen das Recht der Meinungsfreiheit hinter dem Ehrschutz des beschimpften Amtsträgers im konkreten Fall zurücktreten würde. Grundsätzlich gehöre es zum Kernbereich des Rechts auf freie Meinungsäußerung, gerichtliche Entscheidungen ohne Furcht vor staatlichen Sanktionen zu kritisieren. Aus diesem Grund komme der Meinungsäußerungsfreiheit in diesen Fällen besonders hohes Gewicht zu. Auch scharfe und übersteigerte Äußerungen würden noch dem Schutzbereich der Meinungsfreiheit unterfallen.
Anders sei der Fall jedoch dann, wenn die Äußerung als äußerst grob herabwürdigend einzuordnen sei. Der abschätzige Begriff „menschlicher Abschaum“ treffe ausschließlich die Person des Richters und nicht dessen Tätigkeiten oder Verhaltensweisen. Der Angeklagte habe genügend alternative Äußerungsmöglichkeiten gehabt, um seine Einwendungen auch mit deutlichen Worten vorzubringen.
Das Bundesverfassungsgericht hat die Verfassungsbeschwerde gegen die Untersagung von Teilen des Schmähgedichts von Jan Böhmermann mangels Erfolgsaussicht nicht zur Entscheidung angenommen.
Von einer näheren Begründungen hat das Bundesverfassungsgericht abgesehen. Dies ist mehr als bedauerlich, als die Fallkonstellation interessante Rückschlüsse auf die derzeitigen Ansichten des Bundesverfassungsgerichts bezüglich des Spannungsverhältnisses von der Kunstfreiheit / Meinungsfreiheit und dem allgemeinen Persönlichkeitsrecht zugelassen hätte.