Skip to content

Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz beschlossen - Gesetz zur Umsetzung des Digital Services Acts - DSA -

Der Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz (Gesetz zur Umsetzung des Digital Services Acts - DSA) beschlossen.

Siehe dazu auch Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

OLG Frankfurt: Facebook / Meta muss bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen

OLG Frankfurt
Urteil vom 25.1.2024
16 U 65/22

Das OLG Frankfurt hat entschieden, dass Plattformbetreiber wie Facebook / Meta bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.

Die Pressemitteilung des Gerichts:
Facebook - Löschverpflichtung von rechtswidrig geposteten Inhalten

Nach Kenntnis rechtswidriger geposteter Inhalte muss Plattformbetreiber auch sinn- bzw. kerngleiche Posts löschen.

Die konkrete Kenntnis eines rechtsverletzenden Posts (hier: Falschzitat) verpflichtet einen Plattformbetreiber - hier Meta -, auch andere sinngleiche Äußerungen zu löschen. Der Umstand, dass die Bewertung automatisiert aufgefundener sinngleicher Äußerungen teilweise einer kontextgebundenen menschlich-händischen Überprüfung bedarf, führt nicht zur Unzumutbarkeit. Das Oberlandesgericht Frankfurt am Main (OLG) bestätigte mit heute verkündeter Entscheidung den eingeklagten Unterlassungsanspruch.

Die Klägerin ist Politikerin und für die Fraktion Bündnis90/Die Grünen im Bundestag. Sie wendet sich u.a. gegen ein sog. Meme, das über die von der Beklagten betriebene Plattform Facebook gepostet wurde. Es zeigt die Klägerin mit Bild und unter Nennung ihres Vor- und Zunamens sowie der als Zitat gekennzeichneten Äußerung: „Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen!“. Diese Äußerung hat die Klägerin unstreitig nie getätigt.

Das Landgericht hatte die Beklagte hinsichtlich dieses Meme verpflichtet, es zu unterlassen, identische oder kerngleiche Inhalte auf der Plattform öffentlich zugänglich zu machen und sie zudem zur Zahlung einer Geldentschädigung in Höhe von 10.000,00 € verurteilt.

Die hiergegen eingelegte Berufung der Beklagten hatte nur hinsichtlich der Verurteilung zur Zahlung einer Geldentschädigung, nicht aber hinsichtlich der Unterlassungsverpflichtung Erfolg.

Das Landgericht habe der Klägerin zutreffend einen Unterlassungsanspruch zuerkannt, bestätigte das OLG. Das Falschzitat stelle einen rechtswidrigen Eingriff in das allgemeine Persönlichkeitsrecht der Klägerin dar. Es verletze sie in ihrem Recht am eigenen Wort.

Die Beklagte hafte als so genannte mittelbar verantwortliche Störerin auch dafür, dass sie es zu unterlassen habe, alle weiteren identischen oder kern- bzw. sinngleichen Posts zu diesem Post zu löschen, betonte das OLG. Durch die mit anwaltlichem Schreiben erfolgte Übermittlung der konkreten URLs hinsichtlich der von der Klägerin angegriffenen Posts habe die Beklagte unmittelbar Kenntnis von der Rechtsverletzung erlangt. Zudem werde in dem Schreiben definiert, was die Klägerin unter sinngleich verstehe. Diese Kenntnis und Information habe eine Prüf- und Verhaltenspflicht hinsichtlich der Existenz sinngleicher Inhalte ausgelöst, die ebenfalls zu löschen gewesen wären.

Die Beklagte treffe - nach der E-Commerce-Richtlinie - zwar keine allgemeine Überwachungs- und aktive Nachforschungspflicht hinsichtlich rechtswidriger Inhalte. Die konkrete Kenntnis der Rechtsverletzung verpflichte die Beklagte jedoch, künftig derartige Störungen zu verhindern. Dies gelte nicht nur für wortgleiche Inhalte, sondern auch dann, wenn die darin enthaltenen Mitteilungen sinngemäß ganz oder teilweise Gegenstand einer erneuten Äußerung seien.

Bei der Nachforschung nach derartigen sinngleichen Äußerungen müsse zwar nach der Rechtsprechung des EuGH aus Gründen der Zumutbarkeit auf „automatisierte Techniken und Mittel“ zurückgegriffen werden können. Dies sei hier jedoch auch grundsätzlich der Fall. Der Umstand, dass es in Fällen der Wiedergabe des Meme mit eigenen Zusätzen (sog. Caption) einer Sinndeutung bedürfe, so dass nicht rein automatisiert vorgegangen werden könne, stehe dem nicht entgegen. Der Senat fordere keine - europarechtswidrige - autonome rechtliche Prüfung des Inhalts solcher Posts, die sich vom Ursprungspost lösen. Der Beklagten werde nur die Beurteilung auferlegt, ob die Unterschiede aufgrund der abweichenden Gestaltung gegenüber dem Meme nach dem Verständnis eines durchschnittlichen Empfängers bewirkten, dass erkennbar werde, dass ein Falschzitat vorliege oder nicht. Diese menschlich-händische Einzelfallbewertung sei in Kombination mit technischen Verfahren automatisch erkannter bereits hochgeladener Inhalte zumutbar. Im Übrigen könne mithilfe des Einsatzes sog. KI-Systeme eine weitere automatische Vorfilterung erfolgen.

Der Klägerin stehe jedoch kein Anspruch auf Geldentschädigung zu. Dabei könne offenbleiben, ob bei einer hartnäckigen Verweigerung, einem Unterlassungsanspruch nachzukommen, ein solcher Anspruch begründet sei. Hier fehle es jedenfalls an einer solchen hartnäckigen Verweigerung.

Die Entscheidung ist nicht rechtskräftig. Der Senat hat wegen der grundsätzlichen Bedeutung der Frage, ob und unter welchen Voraussetzungen die Beklagte als sog. Hostprovider eine Prüf- und Verhaltenspflicht in Bezug auf sinngleiche Inhalte treffe, die Revision zugelassen.

Oberlandesgericht Frankfurt am Main, Urteil vom 25.1.2024, Az. 16 U 65/22

(vorausgehend LG Frankfurt am Main, Urteil vom 8.4.2022, Az. 2-03 O 188/21)



Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts (DSA) - Stand 15.01.2024 vorgelegt.

Aus dem Entwurf:
Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze

A. Problem und Ziel

Am 16. November 2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „DSA“ [= Digital Services Act]). Der DSA gilt ab dem 17. Februar 2024. Mit dem DSA wird ein horizontaler Rechtsrahmen, also ein einheitlicher Rechtsrahmen für alle Kategorien digitaler Vermittlungsdienste, geschaffen.

Ziel des DSA ist es, für alle Mitgliedstaaten der Europäischen Union (EU) einheitliche horizontale Regeln festzulegen für ein sicheres und vertrauenswürdiges Online-Umfeld, in dem die in der EU-Grundrechtecharta verankerten Grundrechte, darunter der Verbraucherschutz, wirksam geschützt werden. Zudem soll eine starke und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über digitale Vermittlungsdienste in der EU sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der auch Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennimmt und Zugriff auf die Daten der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) erhält. Ergänzend regelt der DSA das Verhältnis der digitalen Vermittlungsdienste zu ihren Nutzerinnen und Nutzern neu. So müssen Hostingdiensteanbieter Melde- und Abhilfeverfahren für illegale Inhalte vorhalten. Zudem werden Hostingdiensteanbieter zu Maßnahmen gegen illegale Aktivitäten und Anbieter von Online-Plattformen zu Maßnahmen gegen eine mögliche missbräuchliche Verwendung der Melde- und Abhilfeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. OnlineMarktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten wollen, vorher überprüfen. Ferner sieht der DSA im Bereich kommerzieller Werbung Transparenzverpflichtungen sowie ein Verwendungsverbot bestimmter personenbezogener Daten vor sowie für sehr große Online-Plattformen bzw. sehr große Online-Suchmaschinen strengere Verpflichtungen als für kleine und mittlere Anbieter. Dies alles soll die Sicherheit des digitalen Umfelds fördern. Schließlich wird ein Rahmen für die Umsetzung, Zusammenarbeit, Sanktionierung und Durchsetzung des DSA festgelegt, der konkrete, an die Mitgliedstaaten gerichtete Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.

B. Lösung

Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetz) wird der nationale Rechtsrahmen an den Vorgaben des DSA ausgerichtet und entsprechend angepasst.

Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste entweder anzupassen oder aufzuheben.

Der Gesetzentwurf schafft vor allem einen Rechtsrahmen für die behördliche Überwachung der Einhaltung von DSA-Vorschriften durch Anbieter von Vermittlungsdiensten. Zu diesem Zweck wird insbesondere eine zentrale Stelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und für die Durchsetzung des DSA benannt: Die Koordinierungsstelle für digitale Dienste wird innerhalb der zuständigen Bundesnetzagentur eingerichtet, um eine wirksame und zugleich unabhängige Aufsicht über digitale Vermittlungsdienste zu gewährleisten. Der vorliegende Entwurf regelt auch Organisation und Funktion der Koordinierungsstelle für digitale Dienste. Ergänzend werden Sonderzuständigkeiten für die Bundeszentrale für Kinder- und Jugendmedienschutz, für nach den medienrechtlichen Bestimmungen der Länder benannte Stellen und für den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit geschaffen. Zudem werden – wo nicht bereits durch den DSA geregelt – Befugnisse der vorgenannten Stellen festgelegt. Der Gesetzentwurf regelt ebenfalls die Zusammenarbeit der jeweils zuständigen Stellen mit weiteren Behörden, deren Zuständigkeit im Einzelfall berührt werden kann. Der vom DSA vorgegebene Spielraum für Sanktionen bei Verstößen gegen den DSA wird durch diesen Gesetzentwurf ausgeschöpft. Ergänzend werden erforderliche Gesetzesänderungen vorgenommen, um nationales Recht an die Terminologie des DSA anzupassen.


Den vollständigen Entwurf finden Sie hier:


BMDV: Entwurf Digitale-Dienste-Gesetz (DDG) zur Umsetzung des Digital Services Acts (DSA)

Das BMDV hat den Entwurf des Digitale-Dienste-Gesetz (DDG) zur Umsetzung des Digital Services Acts (DSA) vorgelegt.

Aus dem Entwurf:
A. Problem und Ziel
Am 16. November 2022 ist die Verordnung des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „Digital Services Act“ oder „DSA“). Die Verordnung gilt ab dem 17. Februar 2024. Mit der Verordnung wird ein horizontaler Rechtsrahmen für digitale Dienste geschaffen.

Ziel des DSA ist es, einheitliche horizontale Regeln festzulegen für ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld. Zudem soll eine robuste und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über Online-Plattformen in Europa sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennehmen und Zugriff auf die Daten der Plattformen erhalten soll. Ergänzend regelt der DSA das Verhältnis der Plattformen zu ihren Nutzerinnen und Nutzern neu. Die Anbieter müssen ein Melde- und Beschwerdeverfahren für illegale Inhalte vorhalten. Zudem werden Online-Plattformen zu Maßnahmen gegen illegale Aktivitäten und Missbrauch der Meldeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. Online-Marktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten, vorher überprüfen. Ferner sieht der DSA Transparenzverpflichtungen für kommerzielle Werbung vor, sowie strengere Verpflichtungen für sehr große Plattformen / Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) als für kleine und mittlere Anbieter vor. Dies alles soll ein sicheres digitales Umfeld fördern. Schließlich wird ein Rahmen für die Umsetzung, die Zusammenarbeit, für Sanktionen und die Durchsetzung des DSA angelegt, der konkrete, an die Mitgliedstaaten gerichteten Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.

B. Lösung

Der DSA ist im nationalen Recht durchzuführen und das nationale Recht ist anzupassen. Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetzes, oder DDG) ist der nationale Rechtsrahmen auf die Vorgaben des DSA auszurichten und anzupassen. Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste, abzulösen. Zur Durchführung des DSA sind insbesondere die zuständige nationale Koordinierungsstelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und zur Durchsetzung des DSA zu benennen, Sanktionsvorschriften zu erlassen und erforderliche Gesetzesänderungen vorzunehmen


Den vollständigen Entwurf finden Sie hier:


LG Frankfurt: Twitter muss wie Facebook bei ehrverletzenden Inhalten auch kerngleiche Tweets und Memes ohne erneute Inkenntnissetzung automatisch löschen

LG Frankfurt
Urteil vom 14.12.2022
2-03 O 325/22

Das LG Frankfurt hat wie erwartet entschieden, dass Twitter wie Facebook bei ehrverletzenden Inhalten auch kerngleiche Tweets und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.

Die Pressemitteilung des Gerichts:
Persönlichkeitsrecht - Ehrverletzung durch herabwürdigenden Tweet

Twitter muss bei einem konkreten Hinweis auf eine Persönlichkeitsrechtsverletzung auch kerngleiche Äußerungen entfernen.

Das Landgericht Frankfurt am Main hat heute entschieden: Betroffene können von Twitter verlangen, dass falsche oder ehrverletzende Tweets über sie gelöscht werden. Auch sinngemäße Kommentare mit identischem Äußerungskern muss Twitter entfernen, sobald es von der konkreten Persönlichkeitsrechtsverletzung Kenntnis erlangt.

Im September 2022 erschienen auf Twitter diverse Kommentare, in denen wahrheitswidrig behauptet wurde, der Antisemitismusbeauftragte des Landes Baden-Württemberg habe „eine Nähe zur Pädophilie“ und er habe „einen Seitensprung gemacht“. Außerdem wurde über ihn verbreitet, er sei in „antisemitische Skandale“ verstrickt und er sei „Teil eines antisemitischen Packs“.

Die zuständige Pressekammer des Landgerichts Frankfurt am Main stellte in einem Eilverfahren fest, dass diese ehrenrührigen Behauptungen unwahr sind. Die Bezeichnung als Antisemit sei zwar zunächst eine Meinungsäußerung. Sie sei aber jedenfalls in dem gewählten Kontext rechtswidrig, denn sie trage nicht zur öffentlichen Meinungsbildung bei und ziele erkennbar darauf ab, in emotionalisierender Form Stimmung gegen den Antisemitismusbeauftragten zu machen.

Nachdem der Antisemitismusbeauftragte die Entfernung dieser Kommentare verlangt hat, hätte Twitter ihre Verbreitung unverzüglich unterlassen und einstellen müssen. Darüber hinaus entschied die Kammer: „Das Unterlassungsgebot greift nicht nur dann, wenn eine Äußerung wortgleich wiederholt wird, sondern auch, wenn die darin enthaltenen Mitteilungen sinngemäß erneut veröffentlicht werden.“ Unter weiter: „Die Äußerungen werden nicht in jeglichem Kontext untersagt. Betroffen sind nur solche Kommentare, die als gleichwertig anzusehen sind und die trotz gewisser Abweichungen einen identischen Äußerungskern aufweisen.“

Twitter werde damit auch keine allgemeine Monitoring-Pflicht im Hinblick auf seine rund 237 Mio. Nutzer auferlegt. Eine Prüfpflicht bestehe nämlich nur hinsichtlich der konkret beanstandeten Persönlichkeitsrechtsverletzung. „Das deutsche Recht mutet jedem Verpflichteten eines Unterlassungsgebots zu, selbst festzustellen, ob in einer Abwandlung das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt und damit kerngleich ist. Twitter befindet sich damit in keiner anderen Situation, als wenn eine bestimmte Rechtsverletzung gemeldet wird. Auch in diesem Fall muss Twitter prüfen, ob diese Rechtsverletzung eine Löschung bedingt oder nicht“, so die Vorsitzende in der Urteilsbegründung.

Als zulässig erachtete die Kammer indes die Äußerung eines Nutzers, wonach der Antisemitismusbeauftragte des Landes Baden-Württemberg in die jährlich vom Wiesenthal-Zentrum in Los Angeles veröffentlichte Liste der größten Antisemiten weltweit aufgenommen worden ist. Unabhängig davon, ob die Aufnahme in diese Liste gerechtfertigt sei, dürfe darüber informiert werden. Dagegen müsse sich der Antisemitismusbeauftragte im öffentlichen Meinungskampf zur Wehr setzen.

Das Urteil (Az. 2-03 O 325/22) ist nicht rechtskräftig. Es kann mit der Berufung zum Oberlandesgericht Frankfurt am Main angefochten werden. Die Entscheidung wird in Kürze unter www.lareda.hessenrecht.hessen.de abrufbar sein.

Ergänzender Hinweis:
Dieselbe Pressekammer des Landgerichts Frankfurt am Main hatte mit Urteil vom 8.4.2022 (Az.: 2-03 O 188/21) entschieden, dass in einer Wort-Bild-Kombination (sog. „Meme“) unterge-schobene Falschzitate auf Facebook auch ohne erneuten Hinweis gelöscht werden müssen, wenn sie einen kerngleichen Inhalt aufweisen. Geklagt hatte dort MdB Renate Künast.



EU-Parlament und EU-Rat einigen sich über Digital Services Act - Gesetz über digitale Dienste

EU-Parlament und EU-Rat haben sich über den Digital Services Act bzw. das Gesetz über digitale Dienste geeinigt.

Die Pressemitteilung der EU:

Digital Services Act: agreement for a transparent and safe online environment

- Access to platforms’ algorithms now possible
- Online platforms will have to remove illegal products, services or content swiftly after they have been reported
- Protection of minors online reinforced; additional bans on targeted advertising for minors as well as targeting based on sensitive data
- Users will be better informed how content is recommended to them

EU negotiators agree on landmark rules to effectively tackle the spread of illegal content online and protect people's fundamental rights in the digital sphere.

On Friday, Parliament and Council reached a provisional political agreement on the Digital Services Act (DSA). Together with the Digital Markets Act, the DSA will set the standards for a safer and more open digital space for users and a level playing field for companies for years to come.


More responsible online platforms


Under the new rules, intermediary services, namely online platforms - such as social media and marketplaces - will have to take measures to protect their users from illegal content, goods and services.

Algorithmic accountability: the European Commission as well as the member states will have access to the algorithms of very large online platforms;
Swift removal of illegal content online, including products, services: a clearer “notice and action” procedure where users will be empowered to report illegal content online and online platforms will have to act quickly;
Fundamental rights to be protected also online: stronger safeguards to ensure notices are processed in a non-arbitrary and non-discriminatory manner and with respect for fundamental rights, including the freedom of expression and data protection;
More responsible online marketplaces: they have to ensure that consumers can purchase safe products or services online, by strengthening checks to prove that the information provided by traders is reliable (“Know Your Business Customer” principle) and make efforts to prevent illegal content appearing on their platforms, including through random checks;
Victims of cyber violence will be better protected especially against non-consensual sharing (revenge porn) with immediate takedowns;
Penalties: online platforms and search engines can be fined up to 6% of their worldwide turnover. In the case of very large online platforms (with more that 45 million users), the EU Commission will have exclusive power to demand compliance;
Fewer burdens and more time to adapt for SMEs: longer period to apply the new rules will support innovation in the digital economy. The Commission will follow closely the potential economic effects of the new obligations on small businesses.
Safer online space for users

New transparency obligations for platforms will allow users to be better informed about how content is recommended to them (recommender systems) and to choose at least one option not based on profiling;
Online advertising: users will have better control over how their personal data are used. Targeted advertising is banned when it comes to sensitive data (e.g. based on sexual orientation, religion, ethnicity);
Protection of minors: platforms accessible to minors will have to take specific measures to protect them, including by fully banning targeted advertising;
Manipulating users’ choices through ‘dark patterns’ will be prohibited: online platforms and marketplaces should not nudge people into using their services, for example by giving more prominence to a particular choice or urging the recipient to change their choice via interfering pop-ups. Moreover, cancelling a subscription for a service should become as easy as subscribing to it;
Compensation: recipients of digital services will have a right to seek redress for any damages or loss suffered due to infringements by platforms.

Harmful content and disinformation


Very large online platforms will have to comply with stricter obligations under the DSA, proportionate to the significant societal risks they pose when disseminating illegal and harmful content, including disinformation.

Very large online platforms will have to assess and mitigate systemic risks and be subject to independent audits each year. In addition, those large platforms that use so-called “recommender systems” (algorithms that determine what users see) must provide at least one option that is not based on profiling;
Special measures in times of crisis: when a crisis occurs, such as a public security or health threat, the Commission may require very large platforms to limit any urgent threats on its platforms. These specific actions are limited to three months.
Quote


“The Digital Services Act will set new global standards. Citizens will have better control over how their data are used by online platforms and big tech-companies. We have finally made sure that what is illegal offline is also illegal online. For the European Parliament, additional obligations on algorithmic transparency and disinformation are important achievements,” said rapporteur Christel Schaldemose (DK, S&D). “These new rules also guarantee more choice for users and new obligations for platforms on targeted ads, including bans to target minors and restricting data harvesting for profiling.”

Next steps

The text will need to be finalised at technical level and verified by lawyer-linguists, before both Parliament and Council give their formal approval. Once this process is completed, it will come into force 20 days after its publication in the EU Official Journal and the rules will start to apply 15 months later.

From 23 to 27 May, a delegation from the EP’s Internal Market Committee will visit several company headquarters (Meta, Google, Apple and others) in Silicon Valley to discuss in person the Digital Services Act package, and other digital legislation in the pipeline, and hear the position of American companies, start-ups, academia and government officials.



LG Frankfurt: Facebook muss bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen

LG Frankfurt
Urteil vom 08.04.2022
2-03 O 188/21

Das LG Frankfurt hat entschieden, dass der Betreiber eines sozialen Netzwerks (hier: Facebook / Meta) bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.

Die Pressemitteilung des Gerichts:

Ehrverletzung durch Falschzitat in sozialem Netzwerk

Diensteanbieter muss Varianten mit kerngleichem Inhalt ohne erneuten Hinweis sperren.
Die Bundestagsabgeordnete Renate Künast kann verlangen, dass eine bestimmte Wort-Bild-Kombination (sog. „Meme“) mit einem ihr untergeschobenen Falschzitat auf Facebook gesperrt wird. Auch Varianten dieses Memes mit kerngleichem Inhalt muss das soziale Netzwerk ohne erneuten Hinweis auf die jeweilige URL löschen. Renate Künast steht wegen der Verletzung ihres allgemeinen Persönlichkeitsrechts außerdem ein Schmerzensgeldanspruch gegen die Betreiberin von Facebook zu.

Auf Facebook erschien ein Bild von Renate Künast, dem folgendes Zitat beigefügt war: „Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen!“ Dieses Zitat ist falsch. Renate Künast hat die Äußerung nicht getätigt. Sie verlangte von Meta als Betreiberin von Facebook die Löschung des Eintrages. Der Post wurde außerdem in verschiedenen Varianten veröffentlicht, etwa mit verändertem Layout oder durch Erweiterung oder Weglassen von Textinhalten, durch Tippfehler oder durch Veränderung für das Auge nicht wahrnehmbarer Pixel. Diese Varianten haben eine andere URL als das ursprüngliche, von Renate Künast zunächst beanstandete Meme.

Vor dem Landgericht Frankfurt am Main hat Renate Künast darauf geklagt, dass Meta es unterlässt, Memes mit kerngleichem Inhalt auf Facebook öffentlich zugänglich machen zu lassen. Mit Urteil vom heutigen Tage hat eine Pressekammer des Landgerichts Frankfurt am Main ihrer Klage stattgegeben.

Durch das Falschzitat werde Renate Künast in ihren Persönlichkeitsrechten verletzt. Ein Diensteanbieter müsse zwar nicht ohne einen Hinweis alle ins Netz gestellten Beiträge auf eine eventuelle Rechtsverletzung prüfen. „Nachdem Renate Künast aber konkret darauf hingewiesen hatte, dass die ihr zugeschriebene Äußerung ein falsches Zitat ist, muss sie diesen Hinweis nicht für jeden weiteren Rechtsverstoß unter Angabe der URL wiederholen,“ erklärte die Vorsitzende der Kammer in der Urteilsbegründung. „Denn für die Beklagte ist unschwer erkennbar, dass es sich bei Varianten mit kerngleichem Inhalt um Falschzitate handelt.“ Und weiter: „Das deutsche Recht mutet jedem Verpflichteten eines Unterlassungsgebots zu, selbst festzustellen, ob in einer Abwandlung das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt und damit kerngleich ist. Das gilt auch in diesem Fall.“

Die Kammer stellte weiter fest: „Die Beklagte hat nicht dargetan, dass es ihr technisch und wirtschaftlich nicht zumutbar ist, ohne konkrete Bezeichnung der URL identische und ähnliche Memes zu erkennen und zwar auch, wenn für die Beurteilung eines abgewandelten Textes in einem Eintrag eine menschliche Moderationsentscheidung notwendig wird“.

In seinem Urteil billigte die Pressekammer Renate Künast außerdem eine Geldentschädigung in Höhe von 10.000 Euro zu. Meta treffe aufgrund der Veröffentlichung der persönlichkeitsrechts-verletzenden Posts eine Mitverantwortung. Denn Meta sei ihrer Verpflichtung nicht nachgekommen, ihre Plattform von weiteren Falschzitaten zu befreien. Die Schwere der Rechtsverletzungen rechtfertige das Schmerzensgeld. Renate Künast sei aufgrund der Falschzitate Anfeindungen ausgesetzt gewesen.

Die Kammer erklärte: „Die Glaubwürdigkeit ist das Kapital eines jeden Menschen, besonders einer Politikerin. Diese Glaubwürdigkeit wird durch das Zuschreiben von Falschzitaten beschädigt. Dies ist ehrenrührig und beeinträchtigt das Persönlichkeitsrecht der Falschzitierten. Falschzitate verzerren auch den Meinungskampf und sie schaden der Allgemeinheit.“

Das heutige Urteil (Aktenzeichen 2-03 O 188/21) ist nicht rechtskräftig.


OLG Dresden: Automatisierte Löschung eines Facebook-Beitrags durch Algorithmus allein begründet keine Wiederholungsgefahr

OLG Dresden
Beschluss vom 04.10.2021
4 W 625/21


Das OLG Dresden hat entschieden, dass die automatisierte Löschung eines Facebook-Beitrags durch einen Algorithmus allein keine Wiederholungsgefahr für einen Anspruch auf zukünftiges Unterlassen begründet. Erst wenn der Betreiber des sozialen Netzwerks die Löschung im weiteren Verlauf verteidigt, begründet dies die für einen Unterlassungsanspruch notwendige Wiederholungsgefahr.

Aus den Entscheidungsgründen:
I. Der Antragsteller wendet sich gegen die am 27.7.2021 erfolgte Löschung eines Beitrags auf dem sozialen Netzwerk "XXX" der Antragsgegnerin und gegen seine zeitweise Versetzung in den sog. read-only Modus. Die Sperre des Antragsstellers hat die Antragsgegnerin zu einem späteren Zeitpunkt wieder aufgehoben, der Post wurde wieder eingestellt. Das Landgericht hat den Antrag auf Erlass einer einstweiligen Verfügung abgelehnt. Es wird insofern auf die Entscheidungsgründe des angefochtenen Beschlusses verwiesen. Mit der sofortigen Beschwerde erstrebt der Antragsteller den Erlass der begehrten einstweiligen Verfügung. Das Landgericht hat der sofortigen Beschwerde nicht abgeholfen und sie dem Senat zur Entscheidung vorgelegt.

II. Die sofortige Beschwerde des Antragstellers ist nach § 567 Abs. 1 Nr. 2 ZPO statthaft und auch im Übrigen zulässig, insbesondere innerhalb der Frist des § 569 ZPO eingelegt worden. Sie hat auch in der Sache Erfolg und führt zur Abänderung des angefochtenen Beschlusses in dem aus dem Tenor ersichtlichen Umfang.

1. Der Antrag auf Erlass der begehrten einstweiligen Verfügung ist zulässig. Die internationale und örtliche Zuständigkeit hat das Landgericht mit zutreffenden Erwägungen, auf die zur Vermeidung von Wiederholungen Bezug genommen wird, bejaht.

2. Ebenfalls zutreffend ist die Annahme des Landgerichts, das auf den streitgegenständlichen Vertrag deutsches Recht Anwendung findet (vgl. hierzu im Übrigen auch BGH, Urteil vom 29.7.2021 – III R 192/20, juris) und dass die von der Antragsgegnerin am 27.7.2021 vorgenommene Löschung des streitgegenständlichen Beitrags ebenso wie die Sperrung des Antragsgegners in Form der Versetzung seines Kontos in den sog. read-only Modus für einen Zeitraum von 30 Tagen rechtswidrig waren. Ob der Beitrag selbst gegen die Nutzungsbedingungen verstößt, kann im Anschluss an die o.a. aufgeführte Entscheidung des BGH dahingestellt bleiben, weil der in Ziff. 3.2 der Nutzungsbedingungen enthaltene Sperrungs- und Löschungsvorbehalt gem. § 307 Abs. 1 S. 1 BGB unwirksam ist, eine vertragliche Grundlage für die von der Antragsgegnerin ergriffenen Maßnahmen mithin nicht bestand (so ausdrücklich für den Parallelfall BGH, aaO. Rn 41ff.). Hiergegen wendet sich die Antragsgegnerin, der im Rahmen des Beschwerdeverfahrens rechtliches Gehör gewährt wurde, auch nicht.

3. Entgegen der Auffassung des Landgerichts scheitert vorliegend ein Verfügungsanspruch aber nicht am Fehlen der Wiederholungs- oder Erstbegehungsgefahr. Wie der BGH in der o.a. Entscheidung ebenfalls ausgeführt hat, setzt ein vertraglicher Unterlassungsanspruch aus § 280 Abs. 1 BGB - ebenso wie ein gesetzlicher Unterlassungsanspruch entsprechend § 1004 Abs. 1 Satz 2 i.V.m. § 823 Abs. 1 BGB - eine Erstbegehungs- beziehungsweise Wiederholungsgefahr voraus (vgl. Bodewig, Jura 2005, 505, 512; Fritzsche, Unterlassungsanspruch und Unterlassungsklage, 2000, S. 106; Köhler, AcP 1990, 496, 508; Medicus/Petersen, Bürgerliches Recht, 27. Aufl., Rn. 207; MüKo/Bachmann, BGB, 8. Aufl., § 241 Rn. 70). Dabei begründet ein einmal erfolgter Vertragsverstoß die tatsächliche Vermutung für seine Wiederholung. Die Verletzung einer Vertragspflicht begründet insofern die Vermutung der Wiederholungsgefahr nicht nur für identische Verletzungsformen, sondern auch für andere Vertragspflichtverletzungen, soweit die Verletzungshandlungen im Kern gleichartig sind (BGH, Urteil vom 29. Juli 2021 – III ZR 192/20 –, Rn. 115 - 116, juris; Urteil vom 20. Juni 2013 - I ZR 55/12, NJW 2014, 775 Rn. 18; Beschluss vom 3. April 2014 - I ZB 42/11, NJW 2014, 2870 Rn. 12; jew. mwN). An die Entkräftung dieser Vermutung sind strenge Anforderungen zu stellen sind. Sie ist ausnahmsweise dann als widerlegt anzusehen, wenn der Eingriff durch eine einmalige Sondersituation veranlasst war (BGH, Urteil vom 27. April 2021 – VI ZR 166/19 –, Rn. 23, juris). Eine solche Sondersituation hat der BGH bezogen auf den vertraglichen Unterlassungsanspruch eines xxx-Nutzes gegen die Antragsgegnerin in der Entscheidung vom 29. Juli 2021 deshalb angenommen, weil von einer aus drei Sätzen bestehenden Äußerungen nur die beiden Sätze in die Rechtsmittelinstanz gelangt waren, die im Verhältnis zum dritten Satz wesentlich weniger scharf formuliert waren und daher für sich genommen keine Veranlassung geboten hätten, zu prüfen ob sie auch für sich genommen gegen die Nutzungsbedingungen der Antragsgegnerin verstoßen. Die vollständige Löschung des Beitrags sei nicht kerngleich zu einer denkbaren Teillöschung nur dieser Sätze und indiziere daher die Wiederholungsgefahr nicht. Dies gilt aber erst recht in den Fällen, in denen die Antragsgegnerin auf die Beanstandung eines Nutzes hin die gesamte, zunächst gelöschte Äußerung umgehend wiederherstellt und eine gegen den Nutzer verhängte Sperre aufhebt. Es ist zum einen gerichtsbekannt, dass die Löschung von Beiträgen regelmäßig zunächst durch eine algorithmusgesteuerte Künstliche Intelligenz (KI) erfolgt, die selbstständig in den sozialen Netzen der Antragsgegnerin Hassrede, sexuell provozierende Inhalte, Drogenangebote, Gewalt und Terrorpropaganda ausfiltert. Menschen greifen nur in Zweifelsfällen ein (vgl. etwa https://www.yyy.de/xxx, abgerufen am 30.8.2021). Diese Praxis ist, wie der BGH in der Entscheidung vom 29.7.2021 ebenfalls ausgeführt hat auch nicht zu beanstanden. Es ist gerade nicht zwingend geboten, den Nutzer bereits vor der Löschung eines posts anzuhören. Ausreichend ist vielmehr, wenn Netzwerkbetreiber in ihren Geschäftsbedingungen den Nutzern ein Recht auf unverzügliche nachträgliche Benachrichtigung, Begründung und Gegendarstellung mit anschließender Neubescheidung einräumen. Insoweit ist zum einen das Interesse der Netzwerkbetreiber zu berücksichtigen, einen vermeintlich rechtswidrigen Inhalt aus Haftungsgründen zügig nach Kenntniserlangung zu entfernen. Zum anderen steigt mit jedem Tag, an dem ein Beitrag auf der Kommunikationsplattform eingestellt bleibt, die Gefahr seiner Verbreitung und damit im Fall seiner Rechtswidrigkeit der Perpetuierung der Rechtsverletzung. Schließlich ist, wenn mit dem fraglichen Inhalt eine mögliche Rechtsverletzung Dritter einhergeht, auch deren Interesse an einer zügigen Entfernung zu berücksichtigen (BGH, Urteil vom 29. Juli 2021 – III ZR 192/20 –, Rn. 99, juris).

Wird ein solches Verfahren eingesetzt, lässt eine automatisierte Löschung für sich genommen noch keinen Rückschluss auf ein zukünftiges Verhalten der Antragsgegnerin zu. Auch wenn subjektive Tatbestandsmerkmale wie ein Verschulden für die Wiederholungsgefahr grundsätzlich unerheblich sind, so knüpft diese Vermutung an ein Verhalten des Störers in der Vergangenheit an, das auf die objektive Besorgnis schließen lässt, dass es in der Zukunft zu weiteren gleichartigen Störungen kommen wird. Hiervon kann jedoch in einer Situation, in der die erstmalige Überprüfung der durch einen Algorithmus eingeleiteten Löschung unmittelbar zu einer Wiederherstellung eines Posts führt, nicht ausgegangen werden, weil die Antragsgegnerin hierdurch zu erkennen gibt, dass die Löschung auf einem technischen Versehen beruht und an die Wiederherstellung die tatsächliche Vermutung anknüpft, dass der Beitrag zukünftig von Löschalgorithmen nicht mehr erfasst wird. Sähe man dies anders, wäre die Antragsgegnerin gezwungen, eine – in der Regel kostenpflichtige – strafbewehrte Unterlassungserklärung abzugeben, obwohl sie ein von der Rechtsordnung gebilligtes Verfahren einsetzt und einen Fehler der von ihr eingesetzten KI unmittelbar bemerkt und ausgeräumt hat. Dies würde nicht zuletzt einer unerwünschten Abmahnindustrie Vorschub leisten.

Anders ist dies aber, wenn die Antragsgegnerin im Verlauf des Verfahrens die Löschung verteidigt oder durch ihr Verhalten zu erkennen gibt, sie inhaltlich nach wie vor für berechtigt zu halten. Da es auch für die Wiederholungsgefahr auf die Rechtslage im Zeitpunkt der gerichtlichen Entscheidung oder mündlichen Verhandlung ankommt, kann an ein solches nachgelagertes Verhalten eine eigenständige Vermutung anknüpfen, die sich mit der Löschung durch eine KI noch nicht verbindet. So liegen die Dinge hier. Wie der Antragsteller dargelegt und glaubhaft gemacht hat, hat er sich nämlich unmittelbar nach der Löschung an die Antragsgegnerin gewandt und von deren "Support" daraufhin die – in der Antragsschrift eingescannte - Nachricht erhalten, sein Beitrag sei "noch einmal geprüft" worden, entspreche jedoch nicht den Gemeinschaftsstandards. Erst zu einem späteren Zeitpunkt sei er ohne Angabe von Gründen wiedereingestellt worden. Aufgrund welcher hier zu beachtender besonderer Umstände des Einzelfalls dies erfolgt ist, lässt sich aus dieser kommentarlosen Wiedereinstellung nicht entnehmen. Die Annahme des Landgerichts, die Antragsgegnerin habe hiermit der Entscheidung des BGH vom 29.7.2021 Rechnung tragen wollen, ist spekulativ und lässt unberücksichtigt, dass die Entscheidungsgründe im dortigen Verfahren im Zeitpunkt der Wiedereinstellung des hiesigen Beitrags Anfang August 2021 noch gar nicht verkündet waren und die Antragsgegnerin daher den Umfang ihrer zukünftigen Verpflichtungen allenfalls grob absehen konnte. Überdies ist dem Senat aus zahlreichen vergleichbaren Verfahren bekannt, dass Betreiber weltweit verfügbarer sozialer Netzwerke mit mehreren Milliarden Nutzern Gerichtsentscheidungen mitunter nur zögerlich befolgen (vgl. nur Senat, Beschluss vom 29. Juni 2021 – 4 W 396/21 –, juris). Zwar hat die Antragsgegnerin unter Vorlage der Anlage JS 2 im mit Schriftsatz vom 21.9.2021 behauptet, die Sperre sei noch am 30.7.2021 und damit vor dem Antrag auf Erlass einer einstweiligen Verfügung wieder aufgehoben worden; diese Behauptung hat sie indes nicht durch Vorlage einer eidesstattlichen Versicherung glaubhaft gemacht. Der weitgehend geschwärzten Anlage JS 2, bei der es sich um einen Screenshot aus dem internen System der Antragsgegnerin handeln soll, lässt sich überdies lediglich entnehmen, dass unter dem Datum "2021/07/30 2:31 pm" die "action:"lActionUnlimited Feature" und die "action: "lActionRestore" an einem Konto mit der owner_id: 100002031410019" vorgenommen worden sein soll, bei dem es sich um das Konto des Antragsstellers handeln soll. Weshalb gleichwohl der Antragsteller die Mitteilung erhalten hat, sein Antrag auf Aufhebung der Sperre sei nach "erneuter Prüfung" abgelehnt worden, bleibt offen. Eine Mitteilung, dass die Antragsgegnerin an ihrer Auffassung nicht mehr festhält, der Beitrag verstoße gegen ihre Nutzungsbedingungen, hat sie dem Antragsteller jedenfalls unstreitig zu keinem Zeitpunkt zukommen lassen. Im Schriftsatz vom 21.9.2021 hat sie überdies die Auffassung vertreten, der Beitrag habe aus der Sicht eines objektiven, unvoreingenommenen Lesers "jedenfalls zunächst" vertretbar als Angriff auf eine Gruppe von Menschen gedeutet werden können und könne ggf. in einem "anderen Kontext" als unzulässig angesehen werden. Ein eindeutiges Abrücken von der Sperr- und Löschungsentscheidung, das unter den hier gegebenen Bedingungen die Vermutung der Wiederholungsgefahr entfallen ließe, kann der Senat hierin nicht erkennen.

4. Entgegen der Auffassung des Landgerichts fehlt es hier auch nicht an einem Verfügungsgrund. Regelmäßig besteht dieser in der (objektiv begründeten) Besorgnis, dass durch eine Veränderung des bestehenden Zustandes die Verwirklichung des Rechts des Gläubigers vereitelt oder wesentlich erschwert werden könnte (vgl. Zöller, ZPO, 33. Aufl., § 935 Rz. 10). Bei Unterlassungsansprüchen ergibt sich die „Dringlichkeit“ als Voraussetzung des Verfügungsgrundes zwar nicht schon aus der materiell-rechtlichen Erstbegehungs- oder Wiederholungsgefahr (vgl. Zöller, a.a.O.), jedoch wird in Fällen des Presse- und Äußerungsrechts ein Verfügungsgrund, wenn - wie hier - keine Selbstwiderlegung der Dringlichkeit, insbesondere durch Zuwarten, gegeben ist, regelmäßig bejaht (vgl. auch KG, Beschluss vom 22. März 2019, Az.: 10 B 172/18 - juris; OLG Stuttgart, Urteil vom 23. Januar 2019, Az.: 4 U 214/18 - juris). Gleiches gilt bei Unterlassungsansprüchen gegen Betreiber sozialer Netzwerke wegen der Löschung eines Beitrags oder der Sperrung des Nutzers (Senat, Urteil vom 20. April 2021 – 4 W 118/21 –, Rn. 41, juris). Eine Leistungsverfügung, von der das Landgericht ausgegangen ist und die grundsätzlich nur bei Not- und Zwangslagen in Betracht kommt, wenn der Gläubiger darlegen und glaubhaft machen kann, auf die Erfüllung dringend angewiesen zu sein (vgl. nur Zöller-Vollkommer, ZPO, 33. Aufl. § 940 Rn 6; Senat, Beschluss vom 15. Februar 2021 – 4 U 2196/20 –, Rn. 5, juris), liegt hier schon deshalb nicht vor, weil es nicht darum geht, dem Antragsteller im Verfügungsverfahren eine zusätzliche Leistungsposition zu verschaffen, sondern die Antragsgegnerin lediglich vorläufig daran gehindert werden soll, ihn an der Ausübung seiner bereits durch den Nutzungsvertrag eingeräumten Rechte durch Sperrung und Löschung zu hindern. Unabhängig hiervon hat der Antragsteller auch glaubhaft gemacht, als Kandidat zum Deutschen Bundestag im Vorfeld der Bundestagswahl und darüber hinaus auf die von ihm betriebene Seite auf dem sozialen Netzwerk der Antragsgegnerin angewiesen zu sein.

5. Die Kostenentscheidung folgt aus § 91 ZPO. Bei der Streitwertfestsetzung war zu berücksichtigen, dass ein Klageantrag, der sich gegen eine 30-tägige Sperre eines Facebook-Nutzerkontos richtet, mit 2500,- €, der Antrag auf Unterlassung einer künftigen Beitragslöschung und Kontensperrung neben einem andere Zeiträume betreffenden Antrag auf Unterlassung für zurückliegende Zeiträume lediglich mit 1500,- € zu bemessen ist (BGH, Beschluss vom 27.5.2021 – III ZR 351/20). Da hier allein Ansprüche auf Unterlassung einer künftigen Löschung und Sperrung verfolgt werden und bei dem Antragssteller zudem die Bedeutung des Rechtsstreits für seine Kandidatur zum Deutschen Bundestag zu berücksichtigen ist, da es andererseits aber allein um ein Verfügungsverfahren geht, hat der Senat in der Gesamtwürdigung den Streitwert mit 3000,- € angesetzt.


Den Volltext der Entscheidung finden Sie hier: