Skip to content

EU-Kommission: Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen möglicherweise unzureichendem Schutz Minderjähriger auf Instagram und Facebook

Die EU-Kommission hat ein förmliches Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen möglicherweise unzureichendem Schutz Minderjähriger auf Instagram und Facebook eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen Meta nach dem Gesetz über digitale Dienste zum Schutz Minderjähriger auf Facebook und Instagram ein

Die Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta, der Anbieter von Facebook und Instagram, in Bereichen im Zusammenhang mit dem Schutz Minderjähriger möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Die Kommission ist besorgt, dass die Systeme sowohl von Facebook als auch von Instagram, einschließlich ihrer Algorithmen, Verhaltensabhängigkeiten bei Kindern stimulieren und so genannte „Rabbit-Out-Effekte“ erzeugen können. Darüber hinaus ist die Kommission besorgt über die Alterssicherungs- und Überprüfungsmethoden, die Meta eingeführt hat.

Die heutige Einleitung des Verfahrens stützt sich auf eine vorläufige Analyse des von Meta im September 2023 übermittelten Risikobewertungsberichts, auf die Antworten von Meta auf die förmlichen Auskunftsersuchen der Kommission (zum Schutz Minderjähriger und zur Methodik der Risikobewertung), auf öffentlich zugängliche Berichte sowie auf die eigene Analyse der Kommission.

Das vorliegende Verfahren betrifft folgende Bereiche:

- Die Einhaltung der Verpflichtungen von Meta im Rahmen des Gesetzes über digitale Dienste zur Bewertung und Minderung von Risiken, die durch die Gestaltung der Online-Schnittstellen von Facebook und Instagram verursacht werden, was die Schwächen und Unerfahrenheit Minderjähriger ausnutzen und zu Suchtverhalten führen und/oder den sogenannten „Rabbit-Locheffekt“ verstärken kann. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden von Kindern sowie für die Achtung ihrer Rechte entgegenzuwirken.

- Die Einhaltung der Anforderungen des Gesetzes über digitale Dienste durch Meta in Bezug auf die Risikominderungsmaßnahmen zur Verhinderung des Zugangs Minderjähriger zu unangemessenen Inhalten, insbesondere zu den von Meta verwendeten Instrumenten zur Altersüberprüfung, die möglicherweise nicht angemessen, verhältnismäßig und wirksam sind.
- Die Einhaltung der Verpflichtungen von Meta im Gesetz über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere im Hinblick auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Konzeption und Funktionsweise ihrer Empfehlungssysteme.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 28, 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Einleitung eines förmlichen Verfahrens greift dem Ergebnis des Verfahrens nicht vor und lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die eine Zuwiderhandlung gegen das Gesetz über digitale Dienste darstellen könnten.

Nächste Schritte
Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen und weiterhin Beweise sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie den Erlass einstweiliger Maßnahmen und Beschlüsse wegen Nichteinhaltung der Vorschriften zu ergreifen. Die Kommission ist ferner befugt, Verpflichtungszusagen von Meta anzunehmen, mit denen die im Verfahren aufgeworfenen Probleme behoben werden sollen.

Die Einleitung dieses förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste im Zusammenhang mit einem mutmaßlichen Verstoß gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
Facebook und Instagram wurden am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattformen (VLOP) eingestuft, da beide über 45 Millionen monatlich aktive Nutzer in der EU haben. Als sehr große Online-Plattformen mussten Facebook und Instagram vier Monate nach ihrer Benennung, d. h. Ende August 2023, damit beginnen, eine Reihe von Verpflichtungen gemäß dem Gesetz über digitale Dienste zu erfüllen. Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.

Am 30. April 2024 hatte die Kommission bereits ein förmliches Verfahren gegen Meta eingeleitet, und zwar sowohl in Bezug auf Facebook als auch in Bezug auf Instagram in Bezug auf irreführende Werbung, politische Inhalte, Melde- und Abhilfemechanismen, den Datenzugang für Forscher sowie die Tatsache, dass im Vorfeld der Wahlen zum Europäischen Parlament kein wirksames Instrument für den Bürgerdiskurs Dritter in Echtzeit zur Verfügung steht.



EU-Kommission: Facebook und Instagram - Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen unzureichender Maßnahmen gegen Irreführende Werbung und Desinformation

Die EU-Kommission hat ein Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen unzureichender Maßnahmen gegen Irreführende Werbung und Desinformation auf Facebook und Instagram eingeleitet.

Die Pressemitteilung des EU-Kommission:
Kommission leitet förmliches Verfahren gegen Facebook und Instagram nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta, der Anbieter von Facebook und Instagram, möglicherweise gegen das Gesetz über digitale Dienste (DSA) verstoßen hat.

Kommissionspräsidentin Ursula von der Leyen erklärte: „Diese Kommission hat Mittel geschaffen, um die europäischen Bürgerinnen und Bürger vor gezielter Desinformation und Manipulation durch Drittländer zu schützen. Wenn wir einen Verstoß gegen die Vorschriften vermuten, handeln wir. Dies gilt jederzeit, insbesondere in Zeiten demokratischer Wahlen. Große digitale Plattformen müssen ihrer Verpflichtung nachkommen, ausreichende Ressourcen dafür einzusetzen, und die heutige Entscheidung zeigt, dass wir mit der Einhaltung ernstlich sind. Der Schutz unserer Demokratien ist ein gemeinsamer Kampf mit unseren Mitgliedstaaten. Heute in Prag möchte ich Premierminister Fiala für seine aktive Rolle bei der Befassung mit diesem Thema auf europäischer Ebene sowie für die Aktivierung des Notfallmechanismus für den Informationsaustausch zwischen den Mitgliedstaaten durch Belgien danken.“

Die mutmaßlichen Verstöße betreffen die Strategien und Praktiken von Meta in Bezug auf irreführende Werbung und politische Inhalte in seinen Diensten. Sie betreffen auch die Nichtverfügbarkeit eines wirksamen zivilgesellschaftlichen Diskurses und Wahlüberwachungsinstruments Dritter in Echtzeit im Vorfeld der Wahlen zum Europäischen Parlament vor dem Hintergrund, dass Meta sein Echtzeit-Tool für öffentliche Einblicke CrowdTangle ohne angemessenen Ersatz verdrängt hat.

Darüber hinaus vermutet die Kommission, dass der Mechanismus zur Kennzeichnung illegaler Inhalte in den Diensten („Notice-and-Action“) sowie die Rechtsbehelfe der Nutzer und interne Beschwerdemechanismen nicht den Anforderungen des Gesetzes über digitale Dienste entsprechen und dass Meta bei der Bereitstellung des Zugangs zu öffentlich zugänglichen Daten für Forscher Mängel aufweist. Die Einleitung des Verfahrens stützt sich auf eine vorläufige Analyse des von Meta im September 2023 übermittelten Risikobewertungsberichts, die Antworten von Meta auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten und Desinformationen, Datenzugang, Abonnements für „No-Ads“-Politik und generative KI), öffentlich zugänglichen Berichten und der eigenen Analyse der Kommission.

Das vorliegende Verfahren wird sich auf folgende Bereiche konzentrieren:

- Irreführende Werbung und Desinformation. Die Kommission vermutet, dass Meta seinen Verpflichtungen aus dem Gesetz über digitale Dienste im Zusammenhang mit der Verbreitung irreführender Werbung, Desinformationskampagnen und einem koordinierten unauthentischen Verhalten in der EU nicht nachkommt. Die Verbreitung solcher Inhalte kann eine Gefahr für den gesellschaftlichen Diskurs, die Wahlprozesse und die Grundrechte sowie den Verbraucherschutz darstellen.
- Sichtbarkeit politischer Inhalte. Die Kommission vermutet, dass die Politik von Meta im Zusammenhang mit dem „politischen inhaltlichen Ansatz“, der politische Inhalte in den Empfehlungssystemen von Instagram und Facebook, einschließlich ihrer Feeds, abbildet, nicht mit den Verpflichtungen aus dem Gesetz über digitale Dienste im Einklang steht. Im Mittelpunkt der Untersuchung steht die Vereinbarkeit dieser Politik mit den Transparenz- und Rechtsbehelfspflichten der Nutzer sowie mit den Anforderungen zur Bewertung und Minderung der Risiken für den gesellschaftlichen Diskurs und die Wahlprozesse.

Die Tatsache, dass im Vorfeld der bevorstehenden Wahlen zum Europäischen Parlament und anderer Wahlen in verschiedenen Mitgliedstaaten kein wirksames Instrument für den Bürgerdiskurs und die Wahlbeobachtung durch Dritte in Echtzeit zur Verfügung steht. Meta ist dabei, „CrowdTangle“ auszuhöhlen, ein Instrument für öffentliche Einblicke, das eine Echtzeit-Wahlüberwachung durch Forscher, Journalisten und die Zivilgesellschaft ermöglicht, auch durch visuelle Live-Dashboards ohne angemessenen Ersatz. Wie jedoch in den jüngsten Leitlinien der Kommission für Anbieter sehr großer Online-Plattformen zu systemischen Risiken für Wahlprozesse zum Ausdruck kommt, sollte der Zugang zu solchen Instrumenten in Zeiten von Wahlen ausgeweitet werden. Die Kommission vermutet daher, dass Meta die Risiken im Zusammenhang mit den Auswirkungen von Facebook und Instagram auf den gesellschaftlichen Diskurs und die Wahlprozesse sowie andere systemische Risiken nicht sorgfältig bewertet und angemessen gemindert hat. Angesichts der Reichweite der Meta-Plattformen in der EU (auf die monatlich mehr als 250 Millionen aktive Nutzer entfallen) und im Anschluss an die Wahl zum Europäischen Parlament, die vom 6. bis 9. Juni 2024 stattfinden wird, und einer Reihe weiterer Wahlen, die in verschiedenen Mitgliedstaaten stattfinden, könnte eine solche Deutung den gesellschaftlichen Diskurs und die Wahlprozesse in Bezug auf die Fähigkeiten zur Verfolgung von Fehl- und Desinformation, die Ermittlung der Einmischung und Unterdrückung von Wählern und die allgemeine Transparenz in Echtzeit für Faktenprüfer, Journalisten und andere relevante Interessenträger bei Wahlen beeinträchtigen. Die Kommission behält sich ihre Bewertung der Art und des Ausmaßes des Schadens vor und erwartet, dass Meta mit der Kommission zusammenarbeiten wird, indem sie unverzüglich die für eine solche Bewertung erforderlichen Informationen vorlegt. Die Kommission erwartet ferner, dass Meta rasch alle erforderlichen Maßnahmen ergreifen wird, um eine wirksame öffentliche Kontrolle seines Dienstes in Echtzeit zu gewährleisten, indem es Forschern, Journalisten und Wahlbeamten angemessenen Zugang zu Echtzeit-Überwachungsinstrumenten für Inhalte gewährt, die in seinen Diensten gehostet werden. Meta wird außerdem aufgefordert, innerhalb von fünf Arbeitstagen mitzuteilen, welche Abhilfemaßnahmen getroffen wurden. Die Kommission hat sich das Recht vorbehalten, Maßnahmen zu ergreifen, falls diese Maßnahmen als unzureichend erachtet werden.
Der Mechanismus zur Kennzeichnung illegaler Inhalte. Die Kommission vermutet, dass der Melde- und Abhilfemechanismus von Meta, der es Nutzern ermöglicht, illegale Inhalte in seinen Diensten zu melden, gegen die Verpflichtungen aus dem Gesetz über digitale Dienste verstößt. Dies schließt den Verdacht ein, dass die Anforderungen, mit denen dieser Mechanismus leicht zugänglich und benutzerfreundlich sein muss, nicht erfüllt sind. Gleichzeitig vermutet die Kommission, dass Meta kein wirksames internes Beschwerdemanagementsystem für die Einreichung von Beschwerden gegen Entscheidungen zur Moderation von Inhalten eingerichtet hat.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 14 Absatz 1, Artikel 16 Absätze 1 und 5, Artikel 16 Absatz 6, Artikel 17 Absatz 1, Artikel 20 Absatz 1, Artikel 20 Absatz 3, Artikel 24 Absatz 5, Artikel 25 Absatz 1, Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die eine Zuwiderhandlung im Rahmen des Gesetzes über digitale Dienste darstellen könnten.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, Verpflichtungszusagen von Meta anzunehmen, mit denen die im Verfahren aufgeworfenen Probleme behoben werden sollen. Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 14 Absatz 1, Artikel 16 Absätze 1 und 5, Artikel 16 Absatz 6, Artikel 20 Absätze 1 und 3, Artikel 24 Absatz 5, Artikel 25 Absatz 1 und Artikel 40 Absatz 12 zu überwachen und durchzusetzen.

Hintergrund
Facebook und Instagram wurden am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattformen (VLOP) eingestuft, da beide über 45 Millionen monatlich aktive Nutzer in der EU haben. Als sehr große Online-Plattformen mussten Facebook und Instagram vier Monate nach ihrer Benennung, d. h. Ende August 2023, damit beginnen, eine Reihe von Verpflichtungen gemäß dem Gesetz über digitale Dienste zu erfüllen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.



EU-Kommission: Weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite

Die EU-Kommission hat ein weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite eingleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet Verfahren gegen TikTok im Rahmen des Gesetzes über digitale Dienste wegen des Starts von TikTok Lite in Frankreich und Spanien ein und teilt ihre Absicht mit, das Belohnungsprogramm in der EU auszusetzen

Die Kommission hat heute ein zweites förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste (DSA) eingeleitet. Mit der heutigen Eröffnung soll geprüft werden, ob das Unternehmen bei der Gründung von TikTok Lite in Frankreich und Spanien möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Die Kommission ist besorgt darüber, dass das „Task and Reward Program“ von TikTok Lite, das es Nutzern ermöglicht, Punkte zu erhalten, wenn sie bestimmte „Aufgaben“ auf TikTok erfüllen – wie z. B. Videos, Liking-Inhalte, Nachbereiter, Einladung von Freunden zum Beitritt zu TikTok usw. – ohne vorherige sorgfältige Bewertung der damit verbundenen Risiken, insbesondere der mit dem Suchteffekt der Plattformen verbundenen Risiken, und ohne wirksame Risikominderungsmaßnahmen zu ergreifen. Dies ist für Kinder besonders besorgniserregend, da auf TikTok vermutet wird, dass es keine wirksamen Mechanismen zur Altersüberprüfung gibt. Das Fehlen wirksamer Mechanismen zur Altersüberprüfung und die mutmaßliche suchterzeugende Gestaltung der Plattformen werden bereits im ersten förmlichen Verfahren gegen TikTok untersucht.

Die Untersuchung wird sich daher auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtung von TikTok, vor der Einführung von Funktionen, in diesem Fall des Programms „Task and Reward Lite“, einen Risikobewertungsbericht zu erstellen und vorzulegen, die wahrscheinlich kritische Auswirkungen auf Systemrisiken haben werden. Insbesondere negative Auswirkungen auf die psychische Gesundheit, einschließlich der psychischen Gesundheit Minderjähriger, insbesondere aufgrund des neuen Merkmals, das Suchtverhalten stimuliert.
- Die von TikTok ergriffenen Maßnahmen zur Minderung dieser Risiken.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Darüber hinaus übermittelte die Kommission TikTok auf der Grundlage eines Beschlusses der Kommission ein förmliches Auskunftsverlangen, in dem das Unternehmen zur Beantwortung seines Auskunftsersuchens vom 17. April 2024 aufgefordert wurde. Insbesondere hatte die Kommission TikTok aufgefordert, bis zum 18. April den Risikobewertungsbericht für TikTok Lite sowie Informationen über die Maßnahmen vorzulegen, die die Plattform ergriffen hat, um potenzielle systemische Risiken dieser neuen Funktionen zu mindern. TikTok hat dieses Dokument nicht fristgerecht vorgelegt.

TikTok hat nun bis zum 23. April Zeit, der Kommission den Risikobewertungsbericht und bis zum 3. Mai die übrigen angeforderten Informationen vorzulegen.

Falls TikTok das Auskunftsersuchen der Kommission nicht innerhalb der angegebenen Fristen per Beschluss beantwortet, kann die Kommission Geldbußen in Höhe von bis zu 1 % des jährlichen Gesamtumsatzes oder des weltweiten Gesamtumsatzes des Anbieters sowie Zwangsgelder in Höhe von bis zu 5 % des durchschnittlichen Tageseinkommens des Anbieters oder des weltweiten Jahresumsatzes verhängen.

Da TikTok nicht in der Lage war, die Risikobewertung vorzulegen, die vor der Einführung von TikTok Lite hätte durchgeführt werden müssen, vermutet die Kommission einen prima facie Verstoß gegen das Gesetz über digitale Dienste und ist der Auffassung, dass die Gefahr einer schwerwiegenden Schädigung der psychischen Gesundheit der Nutzer besteht. Die Kommission hat TikTok daher auch ihre Absicht mitgeteilt, vorläufige Maßnahmen zu ergreifen, die in der Aussetzung des Programms „TikTok Lite“ in der EU bis zur Bewertung seiner Sicherheit bestehen. Es könnte verlängert werden, wenn dies notwendig und verhältnismäßig ist. Vor der förmlichen Annahme der Aussetzung wurde TikTok bis zum 24. April Zeit eingeräumt, in seiner Verteidigung Argumente vorzubringen, die die Kommission sorgfältig prüfen wird.

Nächste Schritte
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße zu überwachen und durchzusetzen.

Hintergrund
Am 25. April 2023 benannte die Kommission TikTok gemäß dem Gesetz über digitale Dienste auf der Grundlage der TikTok -Nutzerdatenbank, die den Schwellenwert von 45 Millionen durchschnittlichen aktiven Nutzern in der EU erreicht, TikTok als sehr große Online-Plattform. Seit Ende August 2023 unterliegt TikTok den Verpflichtungen aus dem Gesetz über digitale Dienste.

TikTok Lite ist eine neue App mit einer Funktion für Nutzer ab 18 Jahren, die als „Task and Reward Program“ bezeichnet wird und es Nutzern ermöglicht, bei der Ausführung bestimmter „Aufgaben“ auf TikTok Punkte zu erhalten, wie z. B. Videos anschauen, Liking-Inhalte, Nachschaffende, Einladung von Freunden zum TikTok usw. Diese Punkte können gegen Belohnung wie Amazon-Gutscheine, Geschenkkarten über PayPal oder TikTok-Münzen, die für Kipper ausgegeben werden können, ausgetauscht werden. TikTok Lite wurde im letzten Monat in Frankreich und Spanien ins Leben gerufen.

Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Im Februar 2024 leitete die Kommission ein erstes förmliches Verfahren gegen TikTok ein, um zu prüfen, ob TikTok möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit dem Schutz Minderjähriger, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte zusammenhängen. Die Untersuchung ist noch nicht abgeschlossen.

Derzeit sind zwei weitere förmliche Verfahren im Rahmen des Gesetzes über digitale Dienste anhängig: eine gegen X und eine gegen AliExpress.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EuGH-Vizepräsident: Eilantrag von Amazon gegen Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt

Vizepräsidenten des EuGH
Beschluss vom 27.03.2024
C-639/23 P(R)
EU-Kommission / Amazon Services Europe


Der EuGH-Vizepräsident hat den Eilantrag von Amazon gegen die Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt.

Die Pressemitteilung des EuGH:
Online-Werbung: Der Antrag von Amazon auf Aussetzung ihrer Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, wird zurückgewiesen

Amazon Services Europe gehört zum Amazon-Konzern. Ihre geschäftlichen Aktivitäten umfassen den OnlineEinzelhandel und weitere Dienstleistungen wie Cloud Computing und Online-Streaming. Sie erbringt OnlineMarktplatzdienste an Drittverkäufer und ermöglicht ihnen, Waren im Amazon Store zum Kauf anzubieten.

Mit Beschluss vom 23. April 20231 , der gemäß der Verordnung über einen Binnenmarkt für digitale Dienste erlassen wurde, benannte die Kommission Amazon Store als sehr große Online-Plattform. Dies bedeutet u. a., dass Amazon Store ein Werbearchiv mit detaillierten Informationen über ihre Online-Werbung öffentlich zugänglich machen muss. Amazon beantragte beim Gericht der Europäischen Union die Nichtigerklärung dieses Beschlusses. Sie stellte außerdem einen Antrag auf vorläufigen Rechtsschutz. Mit Beschluss vom 27. September 20234 ordnete der Präsident des Gerichts die Aussetzung des Beschlusses der Kommission an, soweit Amazon Store damit verpflichtet wird, das Werbearchiv öffentlich zugänglich zu machen. Die Kommission hat gegen den Beschluss des Präsidenten des Gerichts beim Gerichtshof ein Rechtsmittel eingelegt.

Mit seinem heutigen Beschluss hebt der Vizepräsident des Gerichtshofs den Teil des Beschlusses des Präsidenten des Gerichts auf, mit dem der Beschluss der Kommission in Bezug auf das Werbearchiv ausgesetzt wird. Er stellt fest, dass der Kommission unter Verstoß gegen den Grundsatz eines kontradiktorischen Verfahrens die Möglichkeit vorenthalten wurde, zu den Argumenten, die von Amazon im Verfahren vor dem Gericht vorgetragen wurden, Stellung zu nehmen. Da die Kommission vor dem Gerichtshof die Argumente vorgetragen hat, mit denen sie dem Vorbringen von Amazon vor dem Gericht entgegentreten wollte, entscheidet der Vizepräsident des Gerichtshofs den Rechtsstreit endgültig und weist den Antrag auf vorläufigen Rechtsschutz zurück.

Der Vizepräsident des Gerichtshofs ist der Ansicht, dass das Vorbringen von Amazon, die vom Unionsgesetzgeber eingeführte Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, schränke ihre Grundrechte auf Achtung des Privatlebens und auf unternehmerische Freiheit rechtswidrig ein, dem ersten Anschein nach nicht als unerheblich und außerdem völlig haltlos angesehen werden kann.

Zudem würde Amazon, wenn keine Aussetzung erfolgt, vor einem eventuell ergehenden Urteil, mit dem der Beschluss der Kommission für nichtig erklärt wird, wahrscheinlich einen schwerwiegenden und nicht wiedergutzumachenden Schaden erleiden.

Diese Feststellungen sind jedoch für sich allein genommen nicht entscheidend. Es ist nämlich zu prüfen, ob die Abwägung sämtlicher beteiligter Interessen die Versagung der Aussetzung rechtfertigen kann. Hierzu stellt der Vizepräsident des Gerichtshofs fest, dass Amazon in dem Fall, dass die Aussetzung nicht gewährt wird, weiterhin ein Interesse an der Nichtigerklärung des Beschlusses der Kommission hätte. Außerdem ist nicht dargetan, dass in diesem Fall die Existenz oder die langfristige Entwicklung von Amazon auf dem Spiel stünden. Darüber hinaus würde die Aussetzung bedeuten, das vollständige Erreichen der Ziele der Verordnung über einen Binnenmarkt für digitale Dienste möglicherweise über mehrere Jahre hinauszuschieben und damit möglicherweise ein OnlineUmfeld bestehen oder sich entwickeln zu lassen, das eine Bedrohung für die Grundrechte darstellt; der Unionsgesetzgeber war aber der Auffassung, dass die sehr großen Online-Plattformen eine wichtige Rolle in diesem Umfeld spielen. Die vom Unionsgesetzgeber vertretenen Interessen gehen im vorliegenden Fall den materiellen Interessen von Amazon vor, weshalb die Abwägung zugunsten der Zurückweisung des Aussetzungsantrags ausfällt.


Den Volltext des Beschlusses finden Sie hier:

Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz beschlossen - Gesetz zur Umsetzung des Digital Services Acts - DSA -

Der Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz (Gesetz zur Umsetzung des Digital Services Acts - DSA) beschlossen.

Siehe dazu auch Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

EU-Kommission: Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern

Die EU-Kommission hat ein förmliches Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste ein

Die Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob AliExpress in Bereichen im Zusammenhang mit dem Management und der Minderung von Risiken, der Moderation von Inhalten und dem internen Beschwerdemanagementsystem, der Transparenz von Werbe- und Empfehlungssystemen, der Rückverfolgbarkeit von Händlern und dem Datenzugang für Forscher möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich der Analyse des von AliExpress im August 2023 übermittelten Risikobewertungsberichts, der in seinem Transparenzbericht veröffentlichten Informationen und ihrer Antworten auf die förmlichen Auskunftsersuchen der Kommission (vom 6. November 2023 und 18. Januar 2024), hat die Kommission beschlossen, ein förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste in Bezug auf die Bewertung und Minderung der systemischen Risiken der Verbreitung illegaler Inhalte sowie tatsächliche oder vorhersehbare negative Auswirkungen auf den Verbraucherschutz, insbesondere im Zusammenhang mit
- Die mangelnde Durchsetzung von AliExpress-Dienstleistungsbedingungen, die bestimmte Produkte verbieten, die eine
Gefahr für die Gesundheit der Verbraucher darstellen (z. B. gefälschte Arzneimittel und Lebensmittel sowie
Nahrungsergänzungsmittel) und speziell für Minderjährige (Zugang zu pornografischem Material), die die Verbraucher noch
auf der Plattform finden können;
- Das Fehlen wirksamer Maßnahmen zur Verhinderung der Verbreitung illegaler Inhalte;
- Das Fehlen wirksamer Maßnahmen, um vorsätzliche Manipulationen auf der Online-Plattform durch sogenannte „versteckte
Links“ zu verhindern;
- Das Fehlen wirksamer Maßnahmen zur Vermeidung von Risiken aufgrund von Merkmalen wie Influencern, die illegale oder
schädliche Produkte im Rahmen des „verbundenen Programms“ von AliExpress fördern.

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, allen Nutzern, einschließlich derjenigen, die nicht registriert sind, zu ermöglichen, illegale Inhalte zu melden und eine Bestätigung des Eingangs der Meldung zu erhalten;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein wirksames internes Beschwerdemanagementsystem bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, die Zuverlässigkeit und Vollständigkeit der von Wirtschaftsbeteiligten, die AliExpress verwenden, angeforderten Informationen zu sammeln und zu bewerten, auch in Bezug auf Händler im Rahmen des „AliExpress Affiliate Program“, im Einklang mit der Rückverfolgbarkeit der Bestimmungen der Händler;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, für Transparenz in Bezug auf die wichtigsten Parameter zu sorgen, die in den Empfehlungssystemen von AliExpress verwendet werden, und mindestens eine Option eines Empfehlungssystems anzubieten, das nicht auf Profiling beruht;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf AliExpress bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, Forschern gemäß Artikel 40 des Gesetzes über digitale Dienste Zugang zu öffentlich zugänglichen Daten von AliExpress zu gewähren.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 16, 20, 26, 27, 30, 34, 35, 38, 39 und 40 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen zu ergreifen, z. B. einstweilige Maßnahmen zur Beendigung oder Behebung eines Verstoßes gegen Artikel 28 Absatz 1 und Beschlüsse wegen Nichteinhaltung. Die Kommission ist ferner befugt, von AliExpress eingegangene Verpflichtungszusagen anzunehmen, um Abhilfe in dem von dem Verfahren betroffenen Sachverhalt zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen die Artikel 16, 20, 26, 27 und 30 zu überwachen und durchzusetzen.

Die Einleitung eines förmlichen Verfahrens greift weder dem Ergebnis noch anderen Verfahren vor, die die Kommission nach anderen Artikeln des Gesetzes über digitale Dienste einleiten kann. Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die andere Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergreifen.

Hintergrund
AliExpress wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 104,3 Millionen monatlich aktive Nutzer in der EU gibt. Als VLOP musste AliExpress vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von Verpflichtungen aus dem Gesetz über digitale Dienste beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EU-Kommission: Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen der Bereiche Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung

Die EU-Kommission hat ein förmliches Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen möglicher Mängel in den Bereichen Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok in Bereichen im Zusammenhang mit dem Jugendschutz, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich einer Analyse des von TikTok im September 2023 übermittelten Risikobewertungsberichts sowie der Antworten von TikTok auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten, zum Schutz Minderjähriger und zum Datenzugang), hat die Kommission beschlossen,ein förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

Die Einhaltung der Verpflichtungen im Rahmen des Gesetzes über digitale Dienste im Zusammenhang mit der Bewertung und Minderung systemischer Risiken in Bezug auf tatsächliche oder vorhersehbare negative Auswirkungen, die sich aus der Gestaltung des TikTok-Systems, einschließlich algorithmischer Systeme, ergeben und die Verhaltensabhängigkeit stimulieren und/oder sogenannte „Kabbit-Locheffekte“ hervorrufen können. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden der Person, die Achtung der Rechte des Kindes sowie dessen Auswirkungen auf Radikalisierungsprozesse entgegenzuwirken. Darüber hinaus sind die diesbezüglich bestehenden Risikominderungsmaßnahmen, insbesondere die von TikTok verwendeten Instrumente zur Altersüberprüfung, um den Zugang Minderjähriger zu unangemessenen Inhalten zu verhindern, möglicherweise nicht angemessen, verhältnismäßig und wirksam;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere in Bezug auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Gestaltung und Funktionsweise ihrer Empfehlungssysteme;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf TikTok bereitzustellen;
Die von TikTok ergriffenen Maßnahmen zur Erhöhung der Transparenz seiner Plattform. Die Untersuchung betrifft mutmaßliche Mängel beim Zugang von Forschern zu öffentlich zugänglichen Daten von TikTok gemäß Artikel 40 des Gesetzes über digitale Dienste.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1, Artikel 28 Absatz 1, Artikel 39 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die einen Verstoß nach dem Gesetz über digitale Dienste darstellen könnten, beispielsweise im Zusammenhang mit den Verpflichtungen eines Anbieters in Bezug auf die Verbreitung illegaler Inhalte wie terroristische Inhalte oder sexuellen Kindesmissbrauch im Internet oder die Meldung eines Verdachts auf Straftaten.

Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die von anderen Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergriffen werden.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
TikTok wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 135,9 Millionen monatlich aktive Nutzer in der EU hat. Als VLOP musste TikTok vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von im Gesetz über digitale Dienste festgelegten Verpflichtungen beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


OLG Frankfurt: Amazon haftet ab Inkenntnissetzung für Wettbewerbsverstöße durch Angebote von Amazon-Marketplace-Händlern - Pflicht zu Verhinderung gleichartiger Rechtsverletzungen

OLG Frankfurt
Urteil vom 21.12.2023
6 U 154/22


Das OLG Frankfurt hat entschieden, dass Amazon als Plattformbetreiber ab Inkenntnissetzung für Wettbewerbsverstöße durch Angebote von Amazon-Marketplace-Händlern haften. Amazon ist zudem verpflichtet, gleichartige Rechtsverletzungen durch andere Händler zu verhindern.

Geklagt hatte die Wettbewerbszentrale.

Leitsätze des Gerichts:
1. Wird der Betreiber einer Verkaufsplattform auf Verstöße gegen Kennzeichnungsvorschriften hingewiesen (hier: Bezeichnung eines Sojaproduktes als „Milch“), besteht eine Pflicht zur Verhinderung künftiger gleichartiger Verletzungshandlungen auch jenseits des konkreten Angebots.

2. Durch die Kennzeichnung eines Angebots als „amazon's choice für reismilch“ macht sich der Anbieter der Verkaufsplattform den Begriff nicht zu eigen, wenn der Verkehr erkennt, dass nur das vom Nutzer eingegebene Suchwort wiedergegeben wird.

Aus den Entscheidungsgründen:
I. Die Klage ist zulässig.

1. Die jederzeit von Amts wegen zu prüfende internationale Zuständigkeit deutscher Gerichte folgt aus Art. 7 Nr. 3 Brüssel Ia-VO (VO (EU) Nr. 1215/2012). Die der Beklagten zur Last gelegten unerlaubten Handlungen in Form von Wettbewerbsverstößen fanden über den Amazon-Marketplace mit deutscher Top-Level-Domain statt (dazu, dass vorgenannte Bestimmung auch greift, wenn mit einer Klage verhindert werden soll, dass sich ein als rechtswidrig angesehenes Verhalten wiederholt, vgl. z.B. BGH, Urteil vom 14.01.2020 - VI ZR 497/18, juris Rn. 13 mwn). Außerdem hat sich die Beklagte rügelos auf die Klage eingelassen (Art. 26 Abs. 1 Satz 1 Brüssel Ia-VO).

2. Der Kläger ist klagebefugt (§ 8 Abs. 3 Nr. 2 UWG).

Die Vorschrift des § 8 Abs. 3 Nr. 2 UWG regelt nicht nur die sachlich-rechtliche Anspruchsberechtigung, sondern auch die prozessuale Klagebefugnis. Die Klagebefugnis des Wirtschaftsverbands ist als Sachurteilsvoraussetzung in jeder Lage des Verfahrens von Amts wegen zu prüfen. Die Tatsachen, aus denen sich diese ergibt, müssen spätestens im Zeitpunkt der letzten mündlichen Verhandlung in der Tatsacheninstanz vorliegen (vgl. z.B. BGH, Urteil vom 26.01.2023 - I ZR 111/22, GRUR 2023, 585 Rn. 13 mwN - Mitgliederstruktur).

Danach stehen die Ansprüche aus § 8 Abs. 1 UWG denjenigen rechtsfähigen Verbänden zur Förderung gewerblicher oder selbstständiger beruflicher Interessen zu, die in der Liste der qualifizierten Wirtschaftsverbände nach § 8b UWG eingetragen sind, soweit ihnen eine erhebliche Zahl von Unternehmern angehört, die Waren oder Dienstleistungen gleicher oder verwandter Art auf demselben Markt vertreiben, und die Zuwiderhandlung die Interessen ihrer Mitglieder berührt.

Diese Voraussetzung des § 8 Abs. 3 Nr. 2 UWG in der seit dem 13.10.2023 geltenden Fassung sind erfüllt. Der Kläger ist in die Liste der qualifizierten Wirtschaftsverbände nach § 8b UWG eingetragen (Stand: 04.11.2023). Er erfüllt nach seiner Mitgliederstruktur auch die weiteren Anforderungen dieser Norm. Ihm gehören ca. 1.000 Unternehmen und etwa 800 Verbände an, darunter nahezu alle Industrie- und Handelskammern sowie die Handwerkskammern. Durch die Zuwiderhandlung werden Interessen seiner Mitglieder berührt.

II. Allerdings ist die Klage nach dem gemäß Art. 6 Abs. 1 Rom II-Verordnung (VO (EG) Nr. 864/2007) anwendbaren Recht nur in dem vom Landgericht zugesprochenen Umfang begründet.

1. Das Landgericht hat dem Unterlassungsantrag zu 1 a) zu Recht aus § 8 Abs. 3 Nr. 2 i.V.m. Abs. 1 Satz 1, § 3 Abs. 1, § 3a UWG i.V.m. Art. 78 Abs. 1 Buchst. c, Abs. 2 i.V.m. Anhang VII Teil III Nr. 1, Nr. 6 VO (EU) Nr. 1308/2013 stattgegeben.

Die Beklagte hat ihre wettbewerbsrechtliche Verkehrspflicht verletzt, indem sie trotz vorhergehenden Hinweises des Klägers auf Verstöße von Drittbewerbern gegen die europäischen Bezeichnungsvorschriften für Milch und Milcherzeugnisse auf der von ihr betriebenen Plattform nicht effektiv dafür gesorgt hat, dass gleichartige Verstöße beseitigt und effektiv verhindert werden.

a) Dritte Gewerbetreibende haben auf dem Amazon-Marketplace unstreitig gegen die europäischen Bezeichnungsvorschriften für Milch- und Milcherzeugnisse verstoßen, indem sie vegane Milchersatzprodukte mit dem Wortbestandteil „Milch“ vermarktet haben. Entgegen der Auffassung der Beklagten liegt darin ein Rechtsbruch im Sinne von § 3a UWG.

aa) Nach Art. 78 Abs. 1 Buchst. c VO (EU) Nr. 1308/2013 gelten für Milch und Milcherzeugnisse, die für den menschlichen Verzehr bestimmt sind, die Begriffsbestimmungen, Bezeichnungen und Verkehrsbezeichnungen des Anhangs VII dieser Verordnung. Diese Bezeichnungen dürfen in der Union nach Art. 78 Abs. 2VO (EU) Nr. 1308/2013 nur für die Vermarktung eines Erzeugnisses verwendet werden, das den entsprechenden Anforderungen des Anhangs VII der Verordnung genügt.

Anhang VII Teil III (Milch und Milcherzeugnissen) Nr. 1 VO (EU) Nr. 1308/2013 sieht insoweit vor, dass der Ausdruck „Milch“ ausschließlich dem durch ein- oder mehrmaliges Melken gewonnenen Erzeugnis der normalen Eutersekretion, ohne jeglichen Zusatz oder Entzug, vorbehalten ist. Eine der Ausnahmen der Buchstaben a) und b) dieser Vorschrift (eine die Zusammensetzung nicht verändernde Behandlung, ein standardisierter Fettgehalt oder die Kombination mit anderen Worten zur Bezeichnung des Typs, der Qualitätsklasse, des Ursprungs, der vorgesehenen Verwendung, physikalischen Behandlung oder veränderten Zusammensetzung, sofern diese Veränderungen lediglich im Zusatz und/oder Entzug natürlicher Milchbestandteile bestehen) steht nicht in Rede.

Anhang VII Teil III Nr. 3 VO (EU) Nr. 1308/2013 ist ebenfalls nicht einschlägig. Danach kann die Bezeichnung „Milch“ nur dann mit einem oder mehreren Worten für ein zusammengesetztes Erzeugnis verwendet werden, wenn Milch oder ein Milcherzeugnis (vgl. insofern Anhang VII Teil III Nr. 2 VO (EU) Nr. 1308/2013) einen nach der Menge oder nach der für das Erzeugnis charakteristischen Eigenschaft wesentlichen Teil darstellt. Die streitgegenständlichen veganen Milchersatzprodukte enthalten unstreitig weder Milch noch ein Milcherzeugnis.

Nach Anhang VII Teil III Nr. 5 Satz 1 VO (EU) Nr. 1308/2013 dürfen die Bezeichnungen gemäß Teil III Nr. 1, 2 und 3 nur für die in der betreffenden Nummer genannten Erzeugnisse verwendet werden. Soweit nach Satz 2 dieser Vorschrift für Erzeugnisse, deren Art aufgrund ihrer traditionellen Verwendung genau bekannt ist, und/oder wenn die Bezeichnungen eindeutig zur Beschreibung einer charakteristischen Eigenschaft des Erzeugnisses verwandt werden, eine Ausnahme gilt, liegt eine solche hier nicht vor. Nach Art. 91 Satz 1 Buchst. a VO (EU) Nr. 1308/2013 i.V.m. Art. 1 i.V.m. Anhang I des Beschlusses 2010/791/EU der Kommission vom 20. Dezember 2010 (zur Festlegung des Verzeichnisses der Erzeugnisse gemäß Anhang XII Abschnitt III Nummer 1 Unterabsatz 2 der Verordnung (EG) Nr. 1234/2007) sind in Deutschland zwar Bezeichnungen wie „Kokosmilch“, „Erdnussbutter“ oder „Fleischkäse“ gestattet, nicht aber die streitgegenständlichen Bezeichnungen für vegane Milchersatzprodukte (zur Fortgeltung dieses Beschlusses im Anwendungsbereich der VO (EU) Nr. 1038/2013, vgl. EuGH, Urteil vom 14.06.2017 - C-422/16, GRUR 2017, 828 Rn. 12, 34 - Tofu-Town.com). Zwar kann die Kommission nach Art. 78 Abs. 3 VO (EU) Nr. 1308/2013 delegierte Rechtsakte, wie vorgenannten Beschluss 2010/791/EU, erlassen, um einem nachweislich bestehenden Bedarf unter anderem aufgrund geänderter Verbrauchererwartungen nachzukommen. Es ist aber nicht dargetan und auch nicht ersichtlich, dass ein solcher Rechtsakt für die streitgegenständlichen Bezeichnungen bereits ergangen wäre.

Nach Anhang VII Teil III Nr. 6 VO (EU) Nr. 1308/2013 darf bei anderen als den unter Nummern 1, 2 und 3 von Teil III genannten Erzeugnissen nicht durch Etikett, Handelsdokumente, Werbematerial, Werbung irgendwelcher Art im Sinne des Art. 2 RL 2006/114/EG oder durch eine Aufmachung irgendwelcher Art behauptet oder der Eindruck erweckt werden, dass es sich bei dem betreffenden Erzeugnis um ein Milcherzeugnis handele.

Wie der Gerichtshof der Europäischen Union bereits entschieden hat, sind Art. 78 Abs. 2 und Anhang VII Teil III der Verordnung (EU) Nr. 1308/2013 dahin auszulegen, dass sie dem entgegenstehen, dass die Bezeichnung „Milch“ und die nach vorgenannter Verordnung ausschließlich Milcherzeugnissen vorbehaltenen Bezeichnungen bei der Vermarktung oder Werbung zur Bezeichnung eines rein pflanzlichen Produkts verwendet werden, und zwar selbst dann, wenn diese Bezeichnungen durch klarstellende oder beschreibende Zusätze ergänzt werden, die auf den pflanzlichen Ursprung des betreffenden Produkts hinweisen, es sei denn, das Erzeugnis ist - wie hier nicht - in Anhang I des Beschlusses 2010/791/EU der Kommission vom 20. Dezember 2010 aufgeführt (vgl. EuGH, Urteil vom 14.06.2017 - C-422/16, GRUR 2017, 828 Rn.52 - Tofu-Town.com).

Gegen dieses Verbot haben die Drittanbieter mit ihren streitgegenständlichen Angaben verstoßen.

bb) Die europäischen Bezeichnungsvorschriften für Milch und Milcherzeugnisse sind nach zutreffender Auffassung des Landgerichts sog. Marktverhaltensregelungen im Sinne von § 3a UWG.

Nach dieser Vorschrift handelt unlauter, wer einer gesetzlichen Vorschrift zuwiderhandelt, die auch dazu bestimmt ist, im Interesse der Marktteilnehmer das Marktverhalten zu regeln, wenn der Verstoß geeignet ist, die Interessen von Verbrauchern, sonstigen Marktteilnehmern oder Mitbewerbern spürbar zu beeinträchtigen.

Diese Voraussetzungen sind entgegen der Ansicht der Beklagten erfüllt. Es besteht auch eine Eignung zur spürbaren Interessenbeeinträchtigung.

(1) Soweit Verstöße gegen Marktverhaltensregelungen, die den Schutz der Gesundheit der Verbraucher bezwecken, nach der Rechtsprechung des Bundesgerichtshofs ohne Weiteres geeignet sind, die Interessen der Verbraucher im Sinne von § 3a UWG spürbar zu beeinträchtigen (vgl. z.B. BGH; EuGH-Vorlage vom 20.04.2023 - I ZR 108/22, GRUR 2023, 831 Rn. 14 mwN - Hautfreundliches Desinfektionsmittel), ist nach zutreffender Auffassung der Beklagten zwar nicht ersichtlich, dass die streitgegenständlichen Bestimmungen der Verordnung (EU) Nr. 1308/2013 zumindest auch dem Gesundheitsschutz dienten.

(2) Allerdings geht aus den Erwägungsgründen 64 und 76 der Verordnung (EU) Nr. 1308/2013 hervor, dass diese Bestimmungen im Interesse der Erzeuger, der Händler und der Verbraucher unter anderem zu einer Verbesserung der wirtschaftlichen Bedingungen für die Erzeugung und Vermarktung sowie der Qualität der Erzeugnisse, zum Verbraucherschutz und zum Erhalt der Wettbewerbsbedingungen beitragen sollen. Nach der Rechtsprechung des Gerichtshofs der Europäischen Union tragen die verletzten Bestimmungen zur Erreichung dieser Ziele bei, indem sie vorsehen, dass nur die Produkte, die den vorgegebenen Anforderungen entsprechen, mit der Bezeichnung „Milch“ und den ausschließlich Milcherzeugnissen vorbehaltenen Bezeichnungen gekennzeichnet werden dürfen, und zwar auch dann, wenn diese Bezeichnungen durch klarstellende oder beschreibende Zusätze - wie sie im Ausgangsverfahren des Gerichtshofs in Rede standen - ergänzt werden (vgl. EuGH, GRUR 2017, 828 Rn. 43, 47, 52 - Tofu-Town.com). Ohne eine solche Beschränkung könnten anhand der Bezeichnungen „Milch“ und „Milcherzeugnis“ die Produkte, die über die mit der natürlichen Zusammensetzung der tierischen Milch verbundenen besonderen Eigenschaften verfügen, nicht mehr eindeutig bestimmt werden. Aufgrund der dadurch geschaffenen Verwechslungsgefahr widerspräche dies dem Verbraucherschutz und liefe dem Ziel zuwider, die wirtschaftlichen Bedingungen für die Erzeugung und Vermarktung sowie die Qualität der „Milch“ und „Milcherzeugnisse“ zu verbessern (vgl. EuGH, GRUR 2017, 828 Rn. 44 - Tofu-Town.com). Die Bezeichnungsvorgaben garantieren den Erzeugern dieser Produkte unverfälschte Wettbewerbsbedingungen und den Verbrauchern, dass die so bezeichneten Produkte alle denselben Qualitätsstandards genügen. Gleichzeitig werden die Verbraucher vor Verwechslungen in Bezug auf die Zusammensetzung der Produkte geschützt, die sie zu erwerben beabsichtigen (vgl. EuGH, GRUR 2017, 828 Rn. 48 - Tofu-Town.com).

(3) Der Umstand, dass ein Großteil der von den streitgegenständlichen Warenangeboten angesprochenen Verbraucher nicht der Fehlvorstellung unterliegen mag, dass die ausdrücklich als vegan bzw. Milchersatz beworbenen Produkte keine Milch enthalten, führt nicht dazu, dass die Verstöße gegen die europäischen Bezeichnungsvorschriften nicht geeignet wären, die Interessen (jedenfalls) von Milcherzeugern und -händlern sowie der Verbraucher spürbar zu beeinträchtigen.

Wie oben bereits dargetan wurde, hat der europäische Gesetzgeber zur Sicherstellung einheitlicher Qualitätsstandards und zur Vermeidung einer Verwechslungsgefahr für die Verbraucher in der Verordnung (EU) Nr. 1308/2013 vorgesehen, dass die Bezeichnung „Milch“ nur für „echte“ Milchprodukte verwendet werden darf. Durch diese Verordnung ist eine gemeinsame Marktorganisation für landwirtschaftliche Erzeugnisse wie Milch und Milcherzeugnisse errichtet worden (vgl. deren Art. 1 Abs. 1 und 2 Buchst. p)). Bei Nichteinhaltung der Bezeichnungsvorschriften droht eine Verwässerung des durch vollständige Harmonisierung geschützten Begriffes der „Milch“. Dies kann sich, wie in der Berufungsverhandlung erörtert worden ist, für Erzeuger und Vertreiber von Milch, deren Herstellung aufgrund der Nutztierhaltung anderen Anforderungen unterliegt als die Produktion veganer Milchersatzprodukte, nachteilig auswirken. Eine Verwässerung des Begriffs liefe auch dem Ziel zuwider, diesen zur Schaffung einheitlicher Qualitätsstandards europaweit zu vereinheitlichen. Für Verbraucher besteht zudem jedenfalls insoweit eine Irreführungsgefahr, als Milch, wie in der Berufungsverhandlung ebenfalls erörtert worden ist, über Nährstoffe verfügt, die vegane Ersatzprodukte teilweise nicht oder jedenfalls nicht im gleichen Maße haben (etwa einen hohen Protein- und Kalziumanteil, vgl. insofern auch Anlage B11). Insoweit besteht die Gefahr, dass Verbraucher annehmen könnten, als „Milch“ bezeichnete Ersatzprodukte enthielten zwar keine Milch, verfügten aber über dieselben Nähstoffe wie „echte“ Milch, so dass sie - vielleicht sogar mit Vorteilen für Umwelt und Tiere - als echte Milchalternative konsumiert werden könnten. Dies rechtfertigt die Annahme einer Eignung zur spürbaren Interessenbeeinträchtigung.

(4) Auf die „Jogginghosen“-Entscheidung des Bundesgerichtshofs und das Kriterium der Eignung, den Verbraucher zu einer geschäftlichen Entscheidung zu veranlassen, die er anderenfalls nicht getroffen hätte, kommt es entgegen der Ansicht der Beklagten schon deshalb nicht an, weil diese Entscheidung mit dem Vorenthalten einer wesentlichen Information auf eine andere Fallgestaltung betrifft (vgl. BGH, Urteil vom 31.01.2018 - I ZR 73/17, GRUR 2019, 82 Rn. 30 f. - Jogginghosen; Urteil vom 21.01.2021 - I ZR 17/18, GRUR 2021, 752 Rn. 58 mwN - Berechtigte Gegenabmahnung; siehe insofern § 51 Abs. 1 Nr. 1 und 2 UWG nF).

b) Zwar ist die Beklagte nicht als Täterin eines Verstoßes gegen § 3a UWG in Verbindung mit der Verordnung (EU) Nr. 1308/2013 oder Teilnehmerin an einem solchen Verstoß und auch nicht als Störerin für die Wettbewerbsverstöße verantwortlich. Allerdings hat sie ihrer wettbewerbsrechtlichen Verkehrspflicht nicht genügt und daher im Sinne von § 3 Abs. 1 UWG unlauter gehandelt.

aa) Eine Haftung der Beklagten als aktiv handelnde Täterin oder Teilnehmerin eines Verstoßes gegen die Verordnung (EU) Nr. 1308/2013 kommt nicht in Betracht.

(1) Die Frage, ob sich jemand als Täter, Mittäter, Anstifter oder Gehilfe in einer die zivilrechtliche Haftung begründenden Weise an einer deliktischen Handlung eines Dritten beteiligt hat, beurteilt sich nach den im Strafrecht entwickelten Rechtsgrundsätzen. Täter ist danach derjenige, der die Zuwiderhandlung selbst oder in mittelbarer Täterschaft begeht (§ 25 Abs. 1 StGB). Mittäterschaft erfordert eine gemeinschaftliche Begehung, also ein bewusstes und gewolltes Zusammenwirken (vgl. § 830 Abs. 1 Satz 1 BGB). Die Gehilfenhaftung setzt neben einer objektiven Beihilfehandlung zumindest einen bedingten Vorsatz in Bezug auf die Haupttat voraus, der das Bewusstsein der Rechtswidrigkeit einschließen muss (vgl. z.B. BGH, Urteil vom 22.07.2010 - I ZR 139/08, juris Rn. 30 mwN - Kinderhochstühle im Internet I).

(2) Nach diesen Maßstäben hat die Beklagte nicht dadurch, dass sie den Drittanbietern den von ihr betriebenen Amazon-Marketplace zur Verfügung gestellt hat, selbst (mit Tatherrschaft) die unzulässigen Bezeichnungen für vegane Milchersatzprodukte verwendet. Sie hat auch nicht vorsätzlich an den Verstößen der gesetzwidrig handelnden Anbieter mitgewirkt. Es ist nicht dargetan und auch nicht ersichtlich, dass die Beklagte vor den Hinweisen des Klägers Kenntnis von den konkreten Verstößen gehabt hätte. Die Produktangebote der Drittanbieter wurden automatisiert und ohne vorhergehende Prüfung durch die Beklagte eingestellt und auf die Hinweise des Klägers jeweils unverzüglich entfernt. Der Umstand, dass die Beklagte allgemein Kenntnis von möglichen Gesetzesverstößen auf ihrer Plattform gehabt und/oder damit gerechnet haben mag, dass es dort zu vergleichbaren Rechtsverletzungen kommt, begründet noch keinen bedingten Vorsatz in Bezug auf die ihr nicht konkret zur Kenntnis gelangten Gesetzesverstöße Dritter (vgl. insofern z.B. BGH, Urteil vom 12.07.2007 - I ZR 18/04, GRUR 2007, 890 Rn. 21 - Jugendgefährdende Medien bei eBay; BGH, Urteil vom 02.06.2022 - I ZR 140/15, GRUR 2022, 1308 Rn. 78 - YouTube II; Urteil vom 02.06.2022 - I ZR 53/17, GRUR 2022, 1324 Rn. 26 mwN - uploaded II, jeweils zum Urheberrecht). Dass die Beklagte gewusst hätte oder hätte wissen müssen, dass über ihre Plattform im Allgemeinen entsprechende Rechtsverletzungen begangen werden (vgl. insofern z.B. BGH, GRUR 2022, 1308 Rn. 77 - YouTube II; GRUR 2022, 1324 Rn. 33 - uploaded II), hat der Kläger nicht behauptet und ist auch nicht erkennbar. Das Geschäftsmodell der Beklagten regt auch nicht zu einem rechtswidrigen Tätigwerden an (vgl. insofern z.B. BGH, GRUR 2022, 1324 Rn. 25 mwN - uploaded II).

bb) Eine Störerhaftung scheidet in den Fällen eines Verhaltensunrechts von vornherein aus (vgl. z.B. BGH, Urteil vom 22.07.2010 - I ZR 139/08, juris Rn. 48 mwN - Kinderhochstühle im Internet I).

cc) Allerdings hat die Beklagte ihrer wettbewerbsrechtlichen Verkehrspflicht als sog. Host-Provider nicht im vollen Umfang genügt. Daher ist sie selbst dann gemäß § 8 Abs. 1 Satz 1 i.V.m. § 3 Abs. 1 UWG zur Unterlassung verpflichtet, wenn die Voraussetzungen einer Haftungsbefreiung nach europäischem Recht erfüllt sein mögen.

(1) Die Beklagte ist nach dem in Umsetzung von Art. 15 E-Commerce-Richtlinie (RL 2003/31/EG) erlassenen § 7 Abs. 2 TMG (i.V.m. § 2 Satz 1 Nr. 1 TMG) als sog. Host-Provider nicht dazu verpflichtet, die auf der Amazon-Plattform gespeicherten Informationen zu überwachen oder nach Umständen zu forschen, die auf dort auf eine rechtswidrige Tätigkeit hinweisen. Maßnahmen, die darin bestehen, einem Diensteanbieter wie der Beklagten aufzugeben, allein auf eigene Kosten Filtersysteme einzurichten, die mit einer allgemeinen und ständigen Überwachung verbunden sind, um jeder künftigen Verletzung etwa von Rechten des geistigen Eigentums vorzubeugen, wären daher mit Art. 15 Abs. 1 E-Commerce-Richtlinie nicht vereinbar (vgl. z.B. EuGH, Urteil vom 22.06.2021 - C-682/18 u.a., juris Rn. 135 - YouTube und Cyando).

Soweit für die Beklagte nach ihrer Angabe bereits seit August 2023 der gemäß Art. 93 Abs. 2 Satz 1 DSA in der Regel erst ab dem 17.02.2024 geltende Digital Services Act (Verordnung (EU) Nr. 2022/2065) anwendbar ist (vgl. insofern für sehr große Online-Plattformen, die gemäß Art. 33 Abs. 3 DSA benannt wurden, Art. 92 DSA), führt dies nicht zu einer abweichenden Bewertung. Nach Art. 8 DSA wird auch Anbietern von Vermittlungsdiensten keine allgemeine Verpflichtung auferlegt, die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hindeuten.

(2) Zu Gunsten der Beklagten kann auch davon ausgegangen werden, dass die Voraussetzungen einer Haftungsbefreiung nach § 10 Satz 1 TMG bzw. Art. 6 Abs. 1 DSA erfüllt sind. Daher kann dahingestellt bleiben, ob dieses Haftungsprivileg überhaupt für Unterlassungsansprüche gilt (verneinend noch BGH, Urteil vom 12.07.2007 - I ZR 18/04, GRUR 2007, 890 Rn. 20 - Jugendgefährdende Medien bei eBay).

(a) Nach § 10 Satz 1 TMG, durch den Art. 14 E-Commerce-Richtlinie umgesetzt worden ist, sind Diensteanbieter für fremde Informationen, die sie für einen Nutzer speichern, nicht verantwortlich, sofern sie keine Kenntnis von der rechtswidrigen Handlung oder der Information haben (Nr. 1) und ihnen im Falle von Schadensersatzansprüchen auch keine Tatsachen oder Umstände bekannt sind, aus denen die rechtswidrige Handlung oder die Information offensichtlich wird (Nr. 2). Die tatsächliche Kenntnis bzw. das Bewusstsein der Rechtswidrigkeit muss sich grundsätzlich auf konkrete rechtswidrige Tätigkeiten und Informationen bzw. auf konkrete rechtswidrige Handlungen der Nutzer beziehen (vgl. EuGH, Urteil vom 22.06.2021 - C-682/18 u.a., juris Rn. 112 f., 118 - YouTube und Cyando).

Entsprechend sieht Art. 6 Abs. 1 DSA für das sog. Hosting vor, dass bei der Durchführung eines Dienstes der Informationsgesellschaft, der in der Speicherung der von einem Nutzer bereitgestellten Informationen besteht, der Diensteanbieter nicht für die im Auftrag eines Nutzers gespeicherten Informationen haftet, sofern er keine tatsächliche Kenntnis von einer rechtswidrigen Tätigkeit oder rechtswidrigen Inhalten hat und sich in Bezug auf Schadenersatzansprüche auch keiner Tatsachen oder Umstände bewusst ist, aus denen eine rechtswidrige Tätigkeit oder rechtswidrige Inhalte offensichtlich hervorgeht (Buchst. a), oder sobald er diese Kenntnis oder dieses Bewusstsein erlangt, zügig tätig wird, um den Zugang zu den rechtswidrigen Inhalten zu sperren oder diese zu entfernen (Buchst. b). Die Pluralformulierung „rechtswidrigen Inhalten“ führt aus Sicht des Senats nicht zu einer anderen Bewertung. Soweit vorgenannte Bestimmung nach Art. 6 Abs. 3 DSA keine Anwendung auf die verbraucherschutzrechtliche Haftung von Online-Plattformen findet, die Verbrauchern das Abschließen von Fernabsatzverträgen mit Unternehmern ermöglichen, wenn die Online-Plattform die spezifischen Einzelinformationen dazu darstellt oder die betreffende Einzeltransaktion anderweitig in einer Weise ermöglicht, bei der ein durchschnittlicher Verbraucher davon ausgehen kann, dass die Information oder das Produkt oder die Dienstleistung, die bzw. das Gegenstand der Transaktion ist, entweder von der Online-Plattform selbst oder von einem ihrer Aufsicht unterstehenden Nutzer bereitgestellt wird, ist diese Voraussetzung im Streitfall nicht erfüllt. Unter diese Ausnahme dürften nur Konstellationen fallen, in denen ein Anbieter nicht nur - wie ein Hosting-Anbieter dies stets tut - eine zentrale Rolle bei der Verbreitung der Information einnimmt, sondern über seine neutrale Rolle als Betreiber hinaus eine aktive Rolle spielt, die ihm Kenntnis von den in Rede stehenden Inhalten oder eine Kontrolle über diese zu verschaffen vermag (vgl. insofern u.a. EuGH, Urteil vom 22.06.2021 - C-682/18 u.a., juris Rn. 77, 106, 117 - YouTube und Cyando, zum alten Recht).

(b) Eine derartige aktive Rolle hat die Beklagte ausgehend davon, dass die Angebote der Händler ohne vorhergehende Prüfung automatisiert eingestellt wurden und sie auch sonst keinen Einfluss darauf genommen oder den Eindruck erweckt hat, die Produktangebote stammten von ihr oder würden von ihr überprüft, nicht gespielt.

(3) Allerdings lässt bzw. ließe eine fehlende Haftung der Beklagten nach § 10 Satz 1 TMG bzw. Art. 6 Abs. 1 DSA die Möglichkeit einer gerichtlichen Verurteilung zur Unterlassung wegen eines Verstoßes gegen ihre wettbewerbsrechtliche Verkehrspflicht unberührt.

(a) Nach § 7 Abs. 3 Satz 1 TMG bleiben Verpflichtungen zur Entfernung von Informationen oder zur Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen aufgrund von gerichtlichen oder behördlichen Anordnungen auch im Fall der Nichtverantwortlichkeit des Diensteanbieters nach den §§ 8 bis 10 TMG unberührt.

Entsprechend sieht Art. 6 Abs. 4 DSA vor, dass Art. 6 DSA die Möglichkeit unberührt lässt, dass eine Justiz- oder Verwaltungsbehörde nach dem Rechtssystem eines Mitgliedstaats vom Diensteanbieter verlangt, eine Zuwiderhandlung abzustellen oder zu verhindern.

(b) Diesbezüglich ist anerkannt, dass nach der § 7 TMG zugrundeliegenden E-Commerce-Richtlinie nach dem nationalen Recht eines Mitgliedstaats selbst dann insbesondere gerichtliche Anordnungen an einen Hosting-Anbieter ergehen können, wenn dieser eine der in Art. 14 Abs. 1 der Richtlinie angeführten alternativen Voraussetzungen erfüllt, also selbst nicht als verantwortlich anzusehen ist (vgl. EuGH, Urteil vom 03.10.2019 - C-18/18, juris Rn. 25 - Glawischnig-Piesczek/Facebook Ireland; siehe auch Erwägungsgrund 45 der E-Commerce-Richtlinie).

Diese Voraussetzung ist erfüllt. Die vorgerichtlichen Hinweise des Klägers haben für die Beklagte eine wettbewerbsrechtlichen Prüfungs- und Beseitigungspflicht ausgelöst, die über die von ihr getroffenen Maßnahmen hinausgegangen ist. Daher folgt der zuerkannte Unterlassungsanspruch aus § 8 Abs. 1 Satz 1 UWG i.V.m. § 3 Abs. 1 UWG.

(aa) Nach der Rechtsprechung des Bundesgerichtshofs kann eine unlautere Wettbewerbshandlung begehen, wer durch sein Handeln im geschäftlichen Verkehr in einer ihm zurechenbaren Weise die Gefahr eröffnet, dass Dritte Interessen von Marktteilnehmern verletzen, die durch das Wettbewerbsrecht geschützt sind, wenn er diese Gefahr nicht im Rahmen des Möglichen und Zumutbaren begrenzt (vgl. z.B. BGH, GRUR 2007, 890 Rn. 22, 36 - Jugendgefährdende Medien bei eBay). In einem solchen Fall kommt ein täterschaftlicher Verstoß gegen die Generalklausel des § 3 UWG in Betracht (vgl. BGH, GRUR 2007, 890 Rn. 22, 36 - Jugendgefährdende Medien bei eBay). Die Bereitstellung der Plattform ist insoweit die Wettbewerbshandlung im Sinne von § 2 Abs. 1 Nr. 2 UWG (vgl. BGH, GRUR 2007, 890 Rn. 23 - Jugendgefährdende Medien bei eBay).

Wer durch sein Handeln im geschäftlichen Verkehr die Gefahr schafft, dass Dritte durch das Wettbewerbsrecht geschützte Interessen von Marktteilnehmern verletzen, trifft wettbewerbsrechtlich die Pflicht, diese Gefahr im Rahmen des Möglichen und Zumutbaren zu begrenzen. Dem liegt der allgemeine Rechtsgrundsatz zugrunde, dass jeder, der in seinem Verantwortungsbereich eine Gefahrenquelle schafft oder andauern lässt, die ihm zumutbaren Maßnahmen und Vorkehrungen treffen muss, die zur Abwendung der Dritten daraus drohenden Gefahren notwendig sind (vgl. BGH, GRUR 2007, 890 Rn. 36 - Jugendgefährdende Medien bei eBay). Dies gilt unabhängig davon, ob sich die Gefahr in einem Erfolgs- oder Handlungsunrecht realisiert (vgl. BGH, GRUR 2007, 890 Rn. 37 mwN - Jugendgefährdende Medien bei eBay).

Die wettbewerbsrechtliche Verkehrspflicht eines Telediensteanbieters hinsichtlich rechtsverletzender fremder Inhalte konkretisiert sich als Prüfungspflicht. Haftungsvoraussetzung ist eine Verletzung von Prüfungspflichten. Deren Bestehen und Umfang richten sich nach zutreffender Ansicht des Landgerichts im Einzelfall nach einer Abwägung aller betroffenen Interessen und relevanten rechtlichen Wertungen. Entsprechend den zur Störerhaftung entwickelten Grundsätzen kommt es entscheidend darauf an, ob und inwieweit dem in Anspruch Genommenen nach den Umständen eine Prüfung zuzumuten ist (vgl. BGH, GRUR 2007, 890 Rn. 38 mwN - Jugendgefährdende Medien bei eBay). Dem Betreiber eines von der Rechtsordnung gebilligten Geschäftsmodells dürfen dabei keine Anforderungen auferlegt werden, die dieses gefährden oder seine Tätigkeit unverhältnismäßig erschweren, wobei die fehlende Verpflichtung des Betreibers zur allgemeinen Überwachung mit zu berücksichtigen ist (vgl. BGH, GRUR 2007, 890 Rn. 39 mwN - Jugendgefährdende Medien bei eBay). Insgesamt bedarf es eines Gleichgewichts zwischen den verschiedenen beteiligten Interessen (vgl. EuGH, Urteil vom 03.10.2019 - C-18/18, juris Rn. 43 f. - Glawischnig-Piesczek/Facebook Ireland, zu Erwägungsgrund 41 der E-Commerce-Richtlinie; Urteil vom 22.06.2021 - C-682/18 u.a., juris Rn. 138 - YouTube und Cyando).

(bb) Insofern hat der Kläger bereits vorgerichtlich hinreichend deutlich auf die von Drittanbietern auf der Amazon-Plattform begangenen Verstöße gegen europäische Bezeichnungsvorschriften hingewiesen. Soweit die Beklagte der Auffassung ist, die Spürbarkeit dieser Verstöße sei vorprozessual nicht dargetan worden, ist ein Erfordernis zu entsprechenden Rechtsausführungen weder für die Klägerin ersichtlich gewesen noch hat es solcher bei objektiver Betrachtung bedurft. Für die Beklagte war erkennbar, dass ein Verstoß gegen die europäischen Bezeichnungsvorschriften geeignet ist, die Interessen von Marktteilnehmern spürbar zu beeinträchtigen.

(cc) Die vom Landgericht antragsgemäß ausgesprochene Unterlassungspflicht erscheint bei gebotener Abwägung der widerstreitenden Interessen auch erforderlich, um den europäischen Bezeichnungsvorschriften im gebotenen Umfang Geltung zu verschaffen.

Auf Seiten des Diensteanbieters ist sein Recht auf Schutz der unternehmerischen Freiheit nach Art. 16 der Charta der Grundrechte der Europäischen Union vom 12.12.2007 (GRC) beeinträchtigt. Zwar sollte die nach Art. 11 GRC geschützte Meinungs- und Informationsfreiheit im Streitfall weder zu Gunsten der Beklagten noch von Drittanbietern betroffen sein. Allerdings ist der Anspruch auf unternehmerische Freiheit von Drittanbietern mit in die Abwägung einzustellen. Da ein Recht auf unternehmerische Betätigung allerdings nur im Rahmen des geltenden Rechts besteht, wird in die Freiheit der Drittanbieter nur relevant eingegriffen, soweit ausnahmsweise eine rechtmäßige Verwendung der streitgegenständlichen Bezeichnungen in Rede steht, nicht aber bei deren rechtsverletzender Verwendung. Eine schutzwürdige Beeinträchtigung der Interessen Dritter ist insoweit allenfalls bei Verwendung der streitgegenständlichen Begriffe außerhalb des Lebensmittelbereichs denkbar.

Zwar kommt die täterschaftliche Verletzung einer wettbewerbsrechtlichen Verkehrspflicht unter dem Gesichtspunkt der Eröffnung eines gefahrenträchtigen Betriebs grundsätzlich nur unter engen Voraussetzungen in Betracht, um einer unangemessenen Ausdehnung der Haftung für Rechtsverstöße Dritter entgegenzuwirken (vgl. z.B. BGH, Urteil vom 05.10.2017 - I ZR 184/16, GRUR 2018, 203 Rn. 37 - Betriebspsychologe). Auch ist der Beklagten zuzugeben, dass abweichend von den Entscheidungen „Jugendgefährdende Medien bei eBay“ und „Schwimmscheiben“ kein Rechtsgut von hoher Bedeutung wie der Jugend- (vgl. insofern BGH, GRUR 2007, 890 Rn. 40 - Jugendgefährdende Medien bei eBay) oder Gesundheitsschutz (vgl. insofern OLG Frankfurt am Main, Urteil vom 24.06.2021 - 6 U 244/19, juris Rn. 58 - Schwimmscheiben) in Rede stehen dürfte.

Allerdings ist nicht zu verkennen, dass sich auch bei fehlender Prüfungs- und Beseitigungspflicht der Beklagten empfindliche Rechtsschutzlücken ergäben. Die vom europäischen Gesetzgeber geschützten Produktbezeichnungen für Milch und Milcherzeugnisse drohten in dem Fall zu verwässern, zumal die Beklagte hierzulande eine der größten Online-Handelsplattformen betreibt. Diese Verwässerungsgefahr besteht insbesondere, weil jedenfalls auf Seiten der Verbraucher nicht unüblich ist, die beanstandeten Bezeichnungen für vegane Milchersatzprodukte zu verwenden (vgl. Anlagen B5 ff.; vgl. auch Anlage B17). Um eine derartige Verwässerung zu vermeiden, müssten Anspruchsteller wie der Kläger der Beklagten jedes einzelne gesetzesverletzende Angebot melden, damit dieses gelöscht wird, oder jeden Drittanbieter gesondert in Anspruch nehmen. Letzteres wäre zwar aufgrund der auf dem Marktplatz der Beklagten vorgeschriebenen Impressumspflicht grundsätzlich denkbar, allerdings mit erheblichem Aufwand verbunden, zumal unstreitig sein dürfte, dass das Produktangebot auf Amazon ständigen Veränderungen unterliegt. Ein Anspruchsteller müsste daher selbst kontinuierlich Marktüberwachung betreiben, um - im Rahmen des Möglichen - für eine Einhaltung der europäischen Bezeichnungsvorgaben zu sorgen. Dies kann deutlich einfacher und effektiver durch die Beklagte, etwa mit einem Wortfilter, umgesetzt werden. Dass es dadurch zu einer unzumutbaren Flut an (berechtigten) Beschwerden käme, ist bei sachgerechter Umsetzung der Unterlassungs- und Beseitigungspflicht nicht erkennbar.

Der Unterlassungstenor ist auch so konkret, dass die Beklagte keine autonome Bewertung vornehmen muss und auf automatisierte Techniken und Mittel zur Nachforschung zurückgreifen kann (vgl. insofern EuGH, Urteil vom 03.10.2019 - C-18/18, juris Rn. 45 f., 53 - Glawischnig-Piesczek/Facebook Ireland, zur E-Commerce-Richtlinie).

c) Entgegen der Ansicht der Beklagten ist das ausgesprochene Verbot auch nicht zu weitgehend.

aa) Wie der Gerichtshof der Europäischen Union für persönlichkeitsverletzende Äußerungen auf einer Online-Plattform bereits entschieden hat, kann es im Einzelfall legitim sein, von einem Hosting-Anbieter sowohl die Sperre wortgleicher als auch sinngleicher Äußerungen zu verlangen, um zu erreichen, dass der Anbieter jeden weiteren Schaden beim Betroffenen verhindert und die Wirkungen einer Verfügung nicht leicht umgangen werden können, was die betroffene Person zu einer Vielzahl von Verfahren zwingen könnte. Dies gilt unabhängig davon, wer den Auftrag für die Speicherung der Information gegeben hat (vgl. insgesamt EuGH, Urteil vom 03.10.2019 - C-18/18, juris Rn. 37-41, 53 - Glawischnig-Piesczek/Facebook Ireland). Eine solche Verpflichtung läuft nicht auf eine allgemeine Überwachungspflicht hinaus. Der Umstand, dass in der deutschen Fassung des Art. 18 Abs. 1 E-Commerce-Richtlinie - anders in anderen Sprachfassungen - im Zusammenhang mit der Pflicht von Mitgliedstaaten zur Ermöglichung von Klagen nur von dem Ziel, „eine“ mutmaßliche Rechtsverletzung abzustellen und zu verhindern, dass den Betroffenen weiterer Schaden entsteht, die Rede ist, steht einer Erstreckung des Verbots auf gleichartige Rechtsverletzungen nicht entgegen (vgl. EuGH, Urteil vom 03.10.2019 - C-18/18, juris Rn. 30, 37 - Glawischnig-Piesczek/Facebook Ireland). Es ist anerkannt, dass einem Anbieter (jedenfalls im Einzelfall) aufgegeben werden kann, dafür zu sorgen, dass sich derartige Rechtsverletzungen nicht wiederholen (vgl. EuGH, Urteil vom 22.06.2021 - C-682/18 u.a., juris Rn. 129-133, 136 - YouTube und Cyando, zur E-Commerce-Richtlinie; siehe auch BGH, Urteil vom 02.06.2022 - I ZR 135/18, GRUR 2022, 1328 Rn. 46 f, 49 - uploaded III, zum Urheberrecht: „gleichartige“ Rechtsverletzungen). Dies spiegelt sich nunmehr auch in Art. 9 Abs. 1 DSA wider Diese Vorschrift nimmt Bezug auf eine (auf Grundlage des geltenden Unionsrechts oder des nationalen Rechts im Einklang mit dem Unionsrecht) von den zuständigen nationalen Justiz- oder Verwaltungsbehörden erlassene Anordnung zum Vorgehen gegen „einen oder mehrere“ bestimmte rechtswidrige Inhalte. Dem entspricht es, dass sich die durch eine Verletzungshandlung begründete, für einen Verletzungsunterlassungsanspruch erforderliche Wiederholungsgefahr nach deutschem Recht nicht nur auf mit der konkreten Verletzungshandlung identische Verletzungshandlungen, sondern im Interesse eines wirksamen Rechtsschutzes auf alle im Kern gleichartigen Verletzungshandlungen erstreckt, in denen das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt (vgl. z.B. BGH, Urteil vom 09.12.2021 - I ZR 146/20,GRUR 2022, 399 Rn. 11 mwN - Werbung für Fernbehandlung).

Insofern begehrt der Kläger vorliegend nur das Verbot wortgleicher Rechtsverletzungen.

bb) Entgegen der Auffassung der Beklagten besteht auch nicht nur eine Pflicht, künftige Rechtsverstöße durch einen sog. Upload-Filter zu verhindern. Eine Unterlassungsverpflichtung kann sich auch darauf erstrecken, bereits bestehende, fortgesetzte und damit in die Zukunft reichende Rechtsverletzungen zu beseitigen (vgl. z.B. BGH, GRUR 2022, 1328 Rn. 47 mwN - upload III).

Zwar besteht eine Pflicht zur Verhinderung gleichartiger Verletzungshandlungen nur im Rahmen des technisch und wirtschaftlich Zumutbaren (vgl. z.B. BGH, GRUR 2022, 1328 Rn. 47 - upload III). Es sind nur Maßnahmen zu treffen, die von einem die übliche Sorgfalt beachtenden Wirtschaftsteilnehmer in der Situation der Beklagten erwartet werden können, um entsprechende Verstöße effektiv zu unterbinden (vgl. insofern z.B. BGH, GRUR 2022, 1324 Rn. 39 mwN - uploaded II, wenn auch zum Urheberrecht). Besondere technische Schwierigkeiten oder mit dem Einsatz eines Wortfilters verbundene erhebliche Kosten sind auf Grundlage der für den Senat bindenden Feststellungen des Landgerichts aber weder anzunehmen noch sonst ersichtlich.

Die Beklagte macht lediglich geltend, es bestehe die Gefahr, dass auch rechtmäßige Wörter herausgefiltert würden und sie von den diese verwendenden Drittanbietern oder seit Inkrafttreten der DSA von der Kommission auf Zahlung hoher Geldbußen (vgl. insofern Art. 74 Abs. 1 DSA) in Anspruch genommen werden könnte.

Dieser Umstand führt nicht zu einer abweichenden Bewertung. Es ist nicht ersichtlich, dass in relevantem Umfang ein sog. Overblockig drohte, das eine aufwändige manuelle Nachprüfung erforderlich machte. Soweit die Beklagte gestützt auf Anlage B16 auf dieses Risiko verweist, hat der Kläger entgegnet, der Einsatz eines Wortfilters könne grundsätzlich auf den Bereich der „Lebensmittel & Getränke“ beschränkt werden. Soweit Teile der Drittanbieter andere Gegenstände innerhalb dieser Kategorie anbieten (wie etwa Kochmixer, Sojamilchbereiter, „Pflanzenmilch Bereiter“, Shampoo Nussmilchbeutel, Passiertücher oder einen „Sojamilch Filter Löffel […]“), erscheinen sie nicht schutzwürdig, sofern aufgrund eines Wortfilters für Lebensmittel und Getränke unzulässige gesetzliche Bezeichnungen herausgefiltert werden. Dies gilt erst Recht, wenn die Beklagte solche gesetzwidrigen Angebote nicht - wie bisher - vollständig entfernt, sondern gegebenenfalls flankiert von einem Hinweis an den jeweiligen Anbieter mithilfe einer „Suche und Ersetze“-Funktion nur die für Lebensmittel unzulässigen Bezeichnungen durch Wörter wie „Hafterdring“, „Reisdrink“, etc, ersetzte. Inwiefern der Einsatz eines Wortfilters außerhalb der Kategorie „Lebensmittel & Getränke“ geboten sein könnte, um dem titulierten Verbot zu entsprechen, bleibt der Einschätzung der Beklagten überlassen.

cc) Eine andere Beurteilung ist nicht deshalb geboten, weil für einen Anbieter wie die Beklagte seit (bzw. mit) Inkrafttreten des Digital Service Act mit einer Löschung bestimmte Hinweispflichten einhergehen. Es ist nicht ersichtlich, dass diesen Verpflichtungen nicht mit überschaubarem Aufwand automatisiert Rechnung getragen werden könnte. Daher kann offenbleiben, ob entsprechende Gesetzesvorgaben überhaupt geeignet sein können, einer wettbewerblichen Verkehrspflicht entgegenzustehen.

Bei gebotener Gesamtabwägung überwiegt demnach das vom Kläger verfolgte Interesse an der streitgegenständlichen Unterlassung (und Beseitigung).

dd) Soweit ein Verbot auf Grund des Gesetzes gegen den unlauteren Wettbewerb von vornherein auf das Gebiet der Bundesrepublik Deutschland beschränkt ist, ist diesem Umstand dadurch Rechnung getragen, dass sich die ausgesprochene Verurteilung antragsgemäß auf die Internetseite www.(...).de bezieht.

ee) Dem titulierten Verbot steht schließlich nicht entgegen, dass § 3 Abs. 2 UWG vorsieht, dass geschäftliche Handlungen, die sich an Verbraucher richten oder diese erreichen, unlauter sind, wenn sie nicht der unternehmerischen Sorgfalt entsprechen und dazu geeignet sind, das wirtschaftliche Verhalten des Verbrauchers wesentlich zu beeinflussen. Aus den oben bereits dargelegten Gründen kann vorliegend entgegen der Auffassung der Beklagten von einer entsprechenden Eignung ausgegangen werden. Jedenfalls aber besteht ein Wettbewerbsverstoß zu Lasten von Milcherzeugern und -anbietern, deren Schutz die streitgegenständlichen Bezeichnungsvorgaben ebenfalls dienen.

d) Für die erforderliche Wiederholungsgefahr besteht eine tatsächliche Vermutung (vgl. z.B. BGH, Urteil vom 12.03.2020 - I ZR 126/18, GRUR 2020, 755 Rn. 80 mwN - WarnWetterApp).

e) Die Androhung der gesetzlichen Ordnungsmittel beruht auf § 890 Abs. 2 i.V.m. Abs. 1 ZPO. Soweit das Landgericht im Unterlassungstenor versehentlich die vom Kläger gemäß § 890 Abs. 2 ZPO mit beantragte Androhung einer (Ersatz) Ordnungshaft vergessen hat, hat der Senat diese offensichtliche Unrichtigkeit gemäß § 319 Abs. 1 BGB berichtigt.

2. Demgegenüber steht dem Kläger kein Anspruch aus § 8 Abs. 1 Satz 1 i.V.m. § 3a UWG und der Verordnung (EU) Nr.1308/2013 darauf zu, dass die Beklagte es gemäß dem Antrag zu 1 b) unterlässt, auf der Internetseite www.(...).de vegane Milchersatzprodukte mit der Angabe „Amazon's Choice für ‚reismilch‘" zu bewerben,wenn dies geschieht wie gemäß der Anlage K13.

a) Soweit der Kläger das Wort „reismilch“ im Antrag zu 1 b) nicht in Anführungszeichen gesetzt hat, entspricht dies schon nicht der konkreten Verletzungsform, von der bei der rechtlichen Bewertung auszugehen ist.

b) Die beanstandete Angabe richtet sich vorliegend an den normal informierten, aufmerksamen und verständigen Durchschnittsverbraucher (vgl. z.B. BGH, GRUR 2022, 1347 Rn. 21 - 7 x mehr). Dieser erkennt im konkreten Kontext (vgl. z.B. BGH, Urteil vom 02.06.2022 - I ZR 93/21, GRUR 2022, 1347 Rn. 23 mwN - 7 x mehr), dass das Wort „reismilch“ im Rahmen der angegriffenen Angabe

Abbildung

die Wiedergabe seines Suchbegriffs darstellt. Er hat keinen Anlass zu der Annahme, „reismilch“ sei ein von „Amazon“ selbst verwendeter Begriff. Zwar erkennt der angesprochene Verkehr aufgrund der Wendung „Amazon’s Choice“, dass „Amazon“ - und damit bei gebotener objektiver Betrachtung der Plattformenbetreiber und nicht das technisch tatsächlich für den Algorithmus verantwortliche Unternehmen - eine Produktempfehlung ausspricht. Das Wort „Choice“ ist ein Grundwort der englischen Sprache, das dem Durchschnittsverbraucher als englischer Begriff für „Wahl“ oder „Auswahl“ geläufig ist. Allerdings hat das Landgericht unangegriffen und nach dem allein maßgeblichen Vortrag des Klägers mangels Anhaltspunkts für die fehlende Richtigkeit oder Vollständigkeit dieser Feststellung für den Senat gemäß § 529 Abs. 1 Nr. 1 ZPO bindend festgestellt, dass die Einblendung „Amazon's Choice für reismilch" nach substantiiertem Vortrag der Beklagten nur Folge des vom jeweiligen Kaufinteressenten im Suchfeld eingegebenen Begriff „reismilch" ist. Diesen Vortrag hat die Klägerseite in der Berufungsverhandlung ausdrücklich bestätigt. Ein Verbraucher, der aufgrund der Eingabe dieses Suchbegriffs auf die Empfehlung der Beklagtenseite stößt, erkennt nach zutreffender Auffassung der Beklagten ohne Weiteres aufgrund der auf ein Zitat hindeutenden Anführungszeichen und der von ihm stammenden Kleinschreibung des ersten Buchstabens des Suchworts, dass dieses lediglich wiedergegeben wird, ohne dass sich „Amazon“ den Suchbegriff aus Sicht des Verkehrs bei der Empfehlung zu Eigen macht.

b) Davon ausgehend besteht für die Beklagte als Plattformbetreiberin keine rechtliche Verpflichtung dazu, sich bei der Wiedergabe des Nutzersuchworts an die europäischen Bezeichnungsvorschriften zu halten.


Den Volltext der Entscheidung finden Sie hier:

Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts (DSA) - Stand 15.01.2024 vorgelegt.

Aus dem Entwurf:
Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze

A. Problem und Ziel

Am 16. November 2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „DSA“ [= Digital Services Act]). Der DSA gilt ab dem 17. Februar 2024. Mit dem DSA wird ein horizontaler Rechtsrahmen, also ein einheitlicher Rechtsrahmen für alle Kategorien digitaler Vermittlungsdienste, geschaffen.

Ziel des DSA ist es, für alle Mitgliedstaaten der Europäischen Union (EU) einheitliche horizontale Regeln festzulegen für ein sicheres und vertrauenswürdiges Online-Umfeld, in dem die in der EU-Grundrechtecharta verankerten Grundrechte, darunter der Verbraucherschutz, wirksam geschützt werden. Zudem soll eine starke und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über digitale Vermittlungsdienste in der EU sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der auch Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennimmt und Zugriff auf die Daten der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) erhält. Ergänzend regelt der DSA das Verhältnis der digitalen Vermittlungsdienste zu ihren Nutzerinnen und Nutzern neu. So müssen Hostingdiensteanbieter Melde- und Abhilfeverfahren für illegale Inhalte vorhalten. Zudem werden Hostingdiensteanbieter zu Maßnahmen gegen illegale Aktivitäten und Anbieter von Online-Plattformen zu Maßnahmen gegen eine mögliche missbräuchliche Verwendung der Melde- und Abhilfeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. OnlineMarktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten wollen, vorher überprüfen. Ferner sieht der DSA im Bereich kommerzieller Werbung Transparenzverpflichtungen sowie ein Verwendungsverbot bestimmter personenbezogener Daten vor sowie für sehr große Online-Plattformen bzw. sehr große Online-Suchmaschinen strengere Verpflichtungen als für kleine und mittlere Anbieter. Dies alles soll die Sicherheit des digitalen Umfelds fördern. Schließlich wird ein Rahmen für die Umsetzung, Zusammenarbeit, Sanktionierung und Durchsetzung des DSA festgelegt, der konkrete, an die Mitgliedstaaten gerichtete Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.

B. Lösung

Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetz) wird der nationale Rechtsrahmen an den Vorgaben des DSA ausgerichtet und entsprechend angepasst.

Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste entweder anzupassen oder aufzuheben.

Der Gesetzentwurf schafft vor allem einen Rechtsrahmen für die behördliche Überwachung der Einhaltung von DSA-Vorschriften durch Anbieter von Vermittlungsdiensten. Zu diesem Zweck wird insbesondere eine zentrale Stelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und für die Durchsetzung des DSA benannt: Die Koordinierungsstelle für digitale Dienste wird innerhalb der zuständigen Bundesnetzagentur eingerichtet, um eine wirksame und zugleich unabhängige Aufsicht über digitale Vermittlungsdienste zu gewährleisten. Der vorliegende Entwurf regelt auch Organisation und Funktion der Koordinierungsstelle für digitale Dienste. Ergänzend werden Sonderzuständigkeiten für die Bundeszentrale für Kinder- und Jugendmedienschutz, für nach den medienrechtlichen Bestimmungen der Länder benannte Stellen und für den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit geschaffen. Zudem werden – wo nicht bereits durch den DSA geregelt – Befugnisse der vorgenannten Stellen festgelegt. Der Gesetzentwurf regelt ebenfalls die Zusammenarbeit der jeweils zuständigen Stellen mit weiteren Behörden, deren Zuständigkeit im Einzelfall berührt werden kann. Der vom DSA vorgegebene Spielraum für Sanktionen bei Verstößen gegen den DSA wird durch diesen Gesetzentwurf ausgeschöpft. Ergänzend werden erforderliche Gesetzesänderungen vorgenommen, um nationales Recht an die Terminologie des DSA anzupassen.


Den vollständigen Entwurf finden Sie hier:


EU-Kommission: Pornhub, Stripchat und XVideos sind sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste)

Die EU-Kommission hat entschieden, dass Pornhub, Stripchat und XVideos sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) sind.

Die Pressemitteilung des EU-Kommission:
Today, the Commission adopted a second set of designation decisions under the Digital Services Act, designating 3 Very Large Online Platforms (VLOPs). These are:

Pornhub
Stripchat
XVideos
The designation is the result of Commission investigations concluding that the three services fulfil the threshold of 45 million average monthly users in the EU.

Today's designations follow a first set of designation decisions of 19 Very Large Online Platforms and Search Engines on 25 April 2023, of which the Commission published the non-confidential versions today.

General date of applicability of the DSA
With the exception of small and microenterprises, all online platforms and search engines will need to comply with the general DSA obligations by 17 February 2024. Among other provisions, they will need to:

Provide user-friendly mechanisms to allow users or entities to notify illegal content;
Prioritise the treatment of notices submitted by so-called “trusted flaggers”;
Provide statements of reasons to users when their content is restricted or removed;
Provide an internal complaint-handling system for users to appeal content moderation decisions;
Promptly inform law enforcement authorities if they become aware of any information giving rise to a suspicion that a criminal offence involving a threat to the life or safety of a person has taken place, is taking place or is likely to take place, including in the case of child sexual abuse;
Redesign their systems to ensure a high level of privacy, security, and safety of minors;
Ensure that their interfaces are not designed in a way that deceives or manipulates the users;
Clearly label advertisement on their interfaces;
Stop presenting targeted advertisement based on profiling of sensitive data (such as ethnic origin, political opinions or sexual orientation), or targeted at minors;
Have clear terms and conditions and act in a diligent, objective and proportionate manner when applying them;
Publish once a year transparency reports on their content moderation processes.
More stringent rules for designated VLOPs
In addition to the general provisions in the DSA, within four months of their designation as VLOPs, Pornhub, XVideos and Stripchat will also have to adopt specific measures to empower and protect users online, including minors, and duly assess and mitigate any systemic risks stemming from their services. These additional, specific obligations include:

More diligent content moderation:

VLOPs need to analyse their specific systemic risks with regard to the dissemination of illegal content and of content threatening fundamental rights. Risk assessments reports will have to be provided to the Commission 4 months after the notification of the formal designation and made public at the latest a year later;
VLOPs must put in place mitigation measures to address risks linked to the dissemination of illegal content online, such as child sexual abuse material, and content affecting fundamental rights, such as the right to human dignity and private life in case of non-consensual sharing of intimate material online or deepfake pornography. These measures can include adapting their terms and conditions, interfaces, moderation processes, or algorithms, among others;
VLOPs must reinforce their internal processes, resources, testing, documentation, and supervision of any of their activities linked to the detection of systemic risks.
Strong protection of minors:

VLOPs must design their services, including their interfaces, recommender systems, and terms and conditions, to address and prevent risks to the well-being of children. Mitigating measures to protect the rights of the child, and prevent minors from accessing pornographic content online, including with age verification tools;
Risk assessment reports will have in particular to detail any negative effect on the protection of the mental and physical health of minors.
More transparency and accountability:

VLOPs need to ensure that their risk assessments and their compliance with all the DSA obligations are externally and independently audited;
VLOPs need to publish repositories of all the ads served on their interface;
VLOPs will have to give access to publicly available data to researchers, including to vetted researchers designated by Digital Services Coordinators;
VLOPs need to comply with additional transparency requirements, including the publication of transparency reports on content moderation decisions and risk management every six months, in addition to reports on their systemic risks and audit results once a year;
VLOPs need to appoint a compliance function and be subject to an external independent audit every year.
Next Steps
Following their designation as VLOPs, the Commission will be responsible for supervising Pornhub, Stripchat and XVideos, in cooperation with the Digital Services Coordinators of the Member States of establishment.

The Commission services will carefully monitor the compliance with the DSA obligations by these platforms, especially concerning the measures to protect minors from harmful content and to address the dissemination of illegal content. The Commission services are ready to closely engage with the newly designated platforms to ensure these are properly addressed.

Background
On 25 April 2023, the Commission designated the first 19 Very Large Online Platforms and Search Engines. Starting from the end of August, these VLOPs and VLOSEs must comply with the additional obligations under the DSA. By 17 February 2024, all platforms, with the exception of small and microenterprises, will have to comply with the general obligations introduced by the DSA.

The supervision and enforcement of the DSA will be shared between the Commission and Digital Services Coordinators, which will be designated by Member States by 17 February 2024.



EU-Kommission: Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet

Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.

Die Pressemitteilung des EU-Kommission:
The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.

On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.

The proceedings will focus on the following areas:

The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.

The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.

The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.

A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.

If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.

These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.

Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.

The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.

The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.

The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).

Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.

As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:

Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.

Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.

Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data
.



EuG-Präsident: Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt

EuG-Präsident
Anordnung vom 27.09.2023
T‑367/23 R
Amazon Services Europe Sàrl ./. EU-Kommission


Der EuG-Präsident hat angeordnet, dass die Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt wird. Über die Rechtsmäßigkeit der Einordnung muss der EuG noch entscheiden.

Tenor der Entscheidung:
1. Operation of the decision of the European Commission of 25 April 2023, with reference C(2023) 2746 final, designating Amazon Store as a very large online platform in accordance with Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act), is suspended in so far as, by virtue of that decision, Amazon Store will be required to make an advertisement repository publicly available, in accordance with Article 39 of that regulation, without prejudice to the requirement for the applicant to compile the advertisement repository.

2. The application for interim measures is dismissed as to the remainder.

3. The costs are reserved.

Den Volltext der Entscheidung finden Sie hier:


EU-Kommission: Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.

Die Pressemitteilung der EU-Kommission vom 25.04.2023:

Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:

Sehr große Online-Plattformen:

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:

Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.

Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:

Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.

Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:

Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.

Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:

Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.

Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.

Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.

Ein höheres Maß an Transparenz und Rechenschaftspflicht:

Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.

Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.

Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.

Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.

Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.



Betrug durch gefälschte Fake-Abmahnungen per E-Mail durch nicht existenten Rechtsanwalt Manuel Holleis aus Hamburg wegen angeblicher Urheberrechtsverletzungen

Aufgepasst ! Derzeit werden in großer Zahl per E-Mail betrügerische Fake-Abmahnungen eines tatsächlich nicht existenten Rechtsanwalts Manuel Holleis, Jungfernstieg 40, D-20354 Hamburg wegen angeblicher nicht näher spezifizierter Urheberrechtsverletzungen verschickt . Der Rechtsanwalt existiert nicht. Die Abmahnung genügt auch nicht ansatzweise den zwingenden Anforderung von § 97a UrhG. Betroffene sollten auf keinen Fall zahlen und auch nicht weiter auf die Abmahnung reagieren !

LG Nürnberg: Richtiges Klagebegehren bei unberechtigter Löschung eins Beitrags in einem sozialen Netzwerk ist die Wiederfreischaltung des gelöschten Beitrags

LG Nürnberg
Urteil vom 22.08.2023
11 O 6693/21


Das LG Nürnberg hat entschieden, dass das richtiges Klagebegehren bei unberechtigter Löschung eins Beitrags in einem sozialen Netzwerk die Wiederfreischaltung des gelöschten Beitrags ist.

Aus den Entscheidungsgründen:
A. Die Klage ist in ihrer zuletzt geänderten Fassung nur teilweise zulässig.

I. Es liegt eine zulässige Klageänderung vor.
1. Soweit der Kläger mit Schriftsatz vom 10.06.2022 (Bl. 94 ff. d. A.) den Klageantrag Ziffer 5 um einen Hilfsantrag erweiterte, liegt eine Änderung des Sachantrags, mithin eine Klageänderung vor.

2. Die vom Kläger vorgenommene Klageänderung ist als privilegierte Klageänderung gemäß § 264 Nr. 2 ZPO zulässig.

II. Die sonstigen Sachurteilsvoraussetzungen für die geänderte Klage liegen nur teilweise vor, da die Klageanträge Ziffer 2 und Ziffer 5 bereits unzulässig sind.

1. Das Landgericht Nürnberg-Fürth ist international, sachlich und örtlich zuständig.

Die deutschen Gerichte sind international zuständig, Art. 17 Abs. 1c, Abs. 2 i.V.m. Art. 18 Abs. 1 Alt. 2 EuGVVO. Das Landgericht Nürnberg-Fürth ist nach vorstehenden Ausführungen auch örtlich zuständig, da der Kläger seinen Wohnsitz im Bezirk des Landgerichts hat. Die sachliche Zuständigkeit des Landgerichts beruht auf § 1 ZPO, § 23 Nr. 1, § 71 Abs. 1 GVG.

2. Die Klage ist unzulässig, soweit der Kläger die Feststellung der Rechtswidrigkeit von der in dem Klageantrag Ziffer 2 genannten Sperre, Nutzungseinschränkung, Entfernung und Unterbindungshandlung begehrt. Der Klageantrag zielt insoweit nicht auf die Feststellung gegenwärtiger Rechtsverhältnisse im Sinne des § 256 Abs. 1, Abs. 2 ZPO ab (vgl. auch OLG Karlsruhe, Urteil vom 24.05.2022 – 14 U 270/20, juris Rn. 58 ff. mwN).

Der Aspekt, ob eine Kontensperrung rechtswidrig war, stellt kein Rechtsverhältnis dar, da die Qualifizierung eines Verhaltens als rechtmäßig oder rechtswidrig nicht unmittelbar Rechte und Pflichten begründet und daher kein Rechtsverhältnis zwischen Personen begründet. Von daher spielt es auch keine Rolle, ob die Rechtswidrigkeit von erfolgten Sperren eine Vorfrage bei der Entscheidung über andere Klageanträge darstellt. Schließlich erweist sich der Feststellungsantrag auch unter dem Gesichtspunkt des Vorrangs der Leistungsklage als unzulässig.

3. Ebenfalls unzulässig ist die Klage mit ihrem Klageantrag Ziffer 5 nebst Hilfsantrag.

a. Der Unterlassungsantrag ist – auch in der Fassung des Hilfsantrags – nicht hinreichend bestimmt im Sinne des § 253 Abs. 2 Nr. 2 ZPO. Unterlassungsanträge, die lediglich den Gesetzeswortlaut wiedergeben, sind in der Regel als zu unbestimmt und damit unzulässig anzusehen. Vorliegend gibt der Unterlassungsantrag zwar nicht einen Gesetzeswortlaut wieder, sondern knüpft an eine Handlung der Beklagten – die Vornahme einer Sperre des Klägers auf www.facebook.com – an. Dennoch entspricht das Klagebegehren in seiner Wirkung faktisch der bloßen Wiederholung einer Rechtslage, nämlich der Rechtslage in Anknüpfung an die Rechtsprechung des Bundesgerichtshofs zu den Voraussetzungen für die Vornahme einer Sperre (OLG Frankfurt, Urteil vom 30.06.2022 – 16 U 229/20, juris Rn. 59).

b. Zudem darf ein Verbotsantrag nicht derart undeutlich gefasst sein, dass Gegenstand und Umfang der Entscheidungsbefugnis des Gerichts (§ 308 Abs. 1 ZPO) nicht erkennbar abgegrenzt sind, sich der Beklagte deshalb nicht erschöpfend verteidigen kann und letztlich die Entscheidung darüber, was ihm verboten ist, dem Vollstreckungsgericht überlassen bleibt. Ein solcher Fall liegt hier vor. Den Fall der Kontosperre als Verletzungshandlung bzw. als Handlung, die nur nach Anhörung und Möglichkeit der Gegenäußerung zulässig wäre, gibt es nicht. Auch der Bundesgerichtshof hat in seiner Rechtsprechung deutlich gemacht, dass von einer Anhörung vor Durchführung der Maßnahme in eng begrenzten, in Allgemeinen Geschäftsbedingungen näher zu bestimmenden Ausnahmefällen abgesehen werden kann. Außerdem kann z. B. ein Wiederholungsfall vorliegen, der eine nochmalige Anhörung vor einer Sperre entbehrlich macht. Von daher ist die Verletzungshandlung, an die der geltend gemachte Unterlassungsanspruch anknüpft, nicht hinreichend bestimmt. Ließe man den Antrag zu, hätte die Beklagte keine Möglichkeit, sich umfassend und adäquat zu verteidigen (OLG Frankfurt, Urteil vom 30.06.2022 – 16 U 229/20, juris Rn. 60).

c. Schließlich handelt es sich bei dem Begehren des Klägers inhaltlich nicht um einen Unterlassungsanspruch, sondern um einen Anspruch auf zukünftiges positives Tun (Leistungsanspruch auf Information und Neubescheidung vor einer möglichen Sperre). Eine solche Klage ist nach § 259 ZPO nur zulässig, wenn ein Anspruch bereits entstanden ist. Ein Anspruch auf Information kann aber nicht vor Vornahme der entsprechenden Handlung (hier: Einstellung eines Posts, der zu einer Sperre Anlass geben könnte) entstehen (OLG Frankfurt, Urteil vom 30.06.2022 – 16 U 229/20, juris Rn. 61).

B. Die Voraussetzungen für eine zulässige Anspruchshäufung liegen vor, § 260 ZPO.

C. Die Klage ist, soweit über sie noch zu entscheiden ist, überwiegend unbegründet.

I. Der auf die Freischaltung des am 14.08.2021 gelöschten Beitrags (Klageantrag Ziffer 3) ist begründet, da der Kläger gegen die Beklagte gemäß § 280 Abs. 1 Satz 1 i.V.m. § 249 Abs. 1 BGB einen Anspruch hat, den von ihr am 14.08.2021 gelöschten Beitrag wieder freizuschalten.

1. Zwischen den Parteien besteht ein Nutzungsvertrag, der aufgrund der Rechtswahlklausel in Nr. 4.4 der Nutzungsbedingungen der Beklagten dem deutschen Recht unterliegt (so auch BGH, Urteil vom 29.07.2021 – III ZR 192/20, juris Rn. 38). Gemäß Nr. 1 ihrer Nutzungsbedingungen hat sich die Beklagte gegenüber dem Kläger verpflichtet, diesem ihre Produkte und Dienste zur Verfügung zu stellen, um ihm die Möglichkeit zu geben, mit anderen Nutzern in Kontakt zu treten und sich mit ihnen auszutauschen, insbesondere Nachrichten zu senden und Daten wie Texte, Fotos und Videos zu teilen. Daraus folgt, dass die Beklagte Beiträge, die der Kläger in ihr Netzwerk eingestellt hat, nicht grundlos löschen darf (BGH, Urteil vom 29.07.2021 – III ZR 192/20, juris Rn. 40).

2. Gegen diese vertragliche Verpflichtung hat die Beklagte durch die Löschung des streitgegenständlichen Beitrags verstoßen. Entgegen der Auffassung der Beklagten kann sie sich insoweit nicht auf den Entfernungs- und Sperrungsvorbehalt in Nr. 3.2 der (…)-Nutzungsbedingungen i.V.m. den Gemeinschaftsstandards zur „Hassrede“ berufen. Denn ausgehend von der in den Gemeinschaftsstandards zur „Hassrede“ geregelten Definition enthält der Beitrag des Klägers keine Hassrede im Sinne der Gemeinschaftsstandards.

a. Maßgeblich für die Deutung einer Äußerung ist die Ermittlung ihres objektiven Sinns aus der Sicht eines unvoreingenommenen und verständigen Publikums. Ausgehend vom Wortlaut, der allerdings den Sinn nicht abschließend festlegen kann, ist bei der Deutung der sprachliche Kontext, in dem die umstrittene Äußerung steht, zu berücksichtigen. Bei der Erfassung des Aussagegehalts muss die beanstandete Äußerung ausgehend von dem Verständnis eines unbefangenen Durchschnittslesers und dem allgemeinen Sprachgebrauch stets in dem Gesamtzusammenhang beurteilt werden, in dem sie gefallen ist. Sie darf nicht aus dem sie betreffenden Kontext herausgelöst einer rein isolierten Betrachtung zugeführt werden (BGH, Urteil vom 12.04.2016 – VI ZR 505/14, juris Rn. 11 mwN). Fern liegende Deutungen sind auszuscheiden. Ist der Sinn einer Äußerung unter Zugrundelegung des vorstehend erörterten Maßstabs eindeutig, ist er der weiteren Prüfung zugrunde zu legen. Zeigt sich dagegen, dass ein unvoreingenommenes und verständiges Publikum die Äußerung als mehrdeutig wahrnimmt, oder verstehen erhebliche Teile des Publikums den Inhalt jeweils unterschiedlich, ist von einem mehrdeutigen Inhalt auszugehen (BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1696/98, juris Rn. 31). Sind mehrere sich nicht gegenseitig ausschließende Deutungen des Inhalts einer Äußerung möglich, so ist der rechtlichen Beurteilung hinsichtlich von Sanktionen diejenige zugrunde zu legen, die dem in Anspruch Genommenen günstiger ist und den Betroffenen weniger beeinträchtigt (vgl. BGH, Urteil vom 25.11.2003, juris Rn. 26; BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1969/98, juris 33 ff.). Anders bei Unterlassungsansprüchen: Hier ist im Rahmen der rechtlichen Zuordnung von Meinungsfreiheit und Persönlichkeitsschutz zu berücksichtigen, dass der Äußernde die Möglichkeit hat, sich in der Zukunft eindeutig auszudrücken und damit zugleich klarzustellen, welcher Äußerungsinhalt der rechtlichen Prüfung einer Verletzung des Persönlichkeitsrechts zu Grunde zu legen ist (BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1969/98, juris Rn. 34). Ist der Äußernde nicht bereit, der Aussage einen eindeutigen Inhalt zu geben, besteht kein Grund, von einer Verurteilung zum Unterlassen nur deshalb abzusehen, weil die Äußerung mehrere Deutungsvarianten zulässt, darunter auch solche, die zu keiner oder nur einer geringeren Persönlichkeitsverletzung führen (BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1969/98, juris Rn. 35).

b. Unter Zugrundelegung dieser Grundsätze liegt keine Hassrede im Sinne der Gemeinschaftsstandards der Beklagten vor. Denn die von der Beklagten in dem streitgegenständlichen Beitrag beanstandeten Äußerung „verblödete Deutsche“ stellt im vorliegenden Kontext keinen direkten Angriff auf Personen dar, auch wenn durch die Äußerung eine bestimmte Personengruppe aufgrund ihrer nationalen Herkunft identifizierbar ist.

aa. Die Äußerung „verblödete Deutsche“ stellt bereits ausgehend von dem objektiven Wortlaut und auch unter Berücksichtigung des Kontexts keine gewalttätige oder menschenverachtende Sprache und auch keinen Aufruf, Personen auszugrenzen oder zu isolieren, dar.

bb. Die Äußerung „verblödete Deutsche“ stellt überdies in der Zusammenschau der gegebenen tatsächlichen Umstände nicht eine als Hassrede definierte Aussage über Minderwertigkeit, schädliche Stereotypisierung oder einen Ausdruck der Verachtung, der Abscheu oder Ablehnung oder Beschimpfung dar. Denn die Äußerung des Klägers ist mehrdeutig und von der Beklagten ist – ausgehend von dem oben dargestellten Maßstab – bei der Prüfung der Löschung die für den Kläger günstigere Auslegung zugrunde zu legen.

(1) Zwar kann die Äußerung des Klägers, wie von der Beklagten behauptet, von einem Durchschnittsleser im Gesamtkontext als eine Aussage über die Minderwertigkeit der deutschen Bevölkerung bzw. Ausdruck der Verachtung gegenüber der deutschen Bevölkerung ausgelegt und verstanden werden.

Zum einen ist die Aussage „verblödet“ bereits nach dem Wortsinn ein Ausdruck der Verachtung und Minderwertigkeit. In den Gemeinschaftsstandards ist zudem definiert, dass es sich bei dem Wort „blöd“ um eine verbotene Verallgemeinerung handelt, die Minderwertigkeit aufgrund geistiger Einschränkungen der intellektuellen Fähigkeit zum Ausdruck bringe.

Die Äußerung des Klägers könnte vor diesem Hintergrund somit dahingehend verstanden werden, dass die deutsche Bevölkerung insgesamt oder jedenfalls ein repräsentativer, „typischer“ Deutscher“ „verblödet“ sei. Damit würde allen Menschen deutscher Nationalität verallgemeinernd verminderte intellektuelle Fähigkeiten zugeschrieben werden. Auch der Gesamtkontext würde einem solchen Verständnis nicht entgegenstehen. Denn unter Berücksichtigung des Gesamtkontextes kann die Äußerung dahingehend verstanden werden, dass die deutsche Bevölkerung im Vergleich zu Menschen anderer Herkunft über geringere geistige Fähigkeiten verfüge und sich daher leicht täuschen und ausnutzen lasse.

(2) Zugleich kann die Äußerung von einem Durchschnittsleser allerdings auch als Selbstkritik bzw. Selbstironie im Rahmen einer aktuellen politischen Diskussion über den Klimawandel verstanden werden. In diesem Fall würde die Äußerung des Klägers nicht unter die Definition der Hassrede in den Gemeinschaftsstandards fallen.

Es kann nicht ausgeschlossen werden, dass ein Durchschnittsleser die streitgegenständliche Äußerung, wie von dem Kläger vorgetragen, im Gesamtkontext dahingehend versteht, dass die beanstandete Wertung lediglich an das Verhalten und die Einstellung der Deutschen in Bezug auf den Klimawandel und die Klima- bzw. CO₂-Politik („grüner Ökowahn“) im internationalen Vergleich anknüpfe. Die Äußerung kann in diesem Gesamtkontext aufgrund der weiteren Aussagen „Autofahrer schröpfen“, „Industrie knebeln“ sowie der Aussage zur Verlagerung von Produktionsstandorten ins Ausland dahingehend verstanden werden, dass der Kläger die Deutschen kritisiere, dass diese einem „grünen Ökowahn“ unterlägen, der mit Nachteilen für die Deutschen und die deutsche Wirtschaft verbunden sei, während den Rest der Welt bzw. andere Länder der Klimawandel und Belastung der Umwelt nicht interessiere bzw. andere Länder auch noch von dem „Ökowahn“ der Deutschen profitieren würden, weil Produktionsstandorte von Deutschland ins Ausland verlagert werden.

Vor diesem Hintergrund kann nicht ausgeschlossen werden, dass ein Durchschnittsleser die Äußerung als (überspitzt formulierte) Selbstkritik bzw. Selbstironie und nicht als Ausdruck der Minderwertigkeit versteht.
42
(3) Da es sich bei der Löschung des Beitrags um eine Sanktion der Beklagten dem Kläger gegenüber handelt, ist bei der Prüfung der Rechtmäßigkeit der Löschung aufgrund des oben dargestellten Maßstabes die für den Kläger günstigste Auslegung zugrunde zu legen. Da die Äußerung, wie bereits dargestellt, auch dahingehend verstanden und ausgelegt werden kann, dass keine Hassrede im Sinne der Gemeinschaftsstandards vorliegt, war die Löschung rechtswidrig und der Beitrag ist wiederherzustellen.

Soweit die Beklagte im Schriftsatz vom 04.04.2022 (Bl. 71 d. A. Rückseite) geltend macht, andere Gerichte hätten bereits entschieden, dass eine Darstellung der Deutschen als dumm bzw. intellektuell minderbemittelt eine Hassrede im Sinne der Gemeinschaftsstandards darstelle, führt dies zu keiner anderen rechtlichen Beurteilung. Entsprechende Urteile sind weder veröffentlicht noch vorgelegt. Es kann daher nicht überprüft werden, ob die den Entscheidungen zugrunde liegenden Äußerungen mit der streitgegenständlichen Äußerung im konkreten Zusammenhang identisch sind.

c. Da der streitgegenständliche Beitrag mangels Erfüllung eines dort genannten Straftatbestands auch keinen rechtswidrigen Inhalt im Sinne von § 1 Abs. 3 NetzDG darstellt, kommt eine hierauf gestützte Löschung des Beitrages nicht in Betracht.

3. Es ist weder dargetan noch sonst ersichtlich, dass die Beklagte die in der Entfernung des Beitrags bestehende Pflichtverletzung nicht zu vertreten hat (§ 280 Abs. 1 Satz 2 BGB). Gemäß § 249 Abs. 1 BGB ist die Beklagte zur Wiederherstellung des Beitrags verpflichtet. Denn der durch die Pflichtverletzung verursachte Schaden des Klägers besteht darin, dass sein Beitrag auf der Plattform der Beklagten nicht mehr gespeichert ist und von den anderen Nutzern nicht mehr gelesen werden kann (vgl. BGH, Urteil vom 29.07.2021 – III ZR 192/20, juris Rn. 111).

4. Vor diesem Hintergrund kommt es auf die Fragen der Wirksamkeit der Nutzungsbedingungen, insbesondere im Hinblick auf die Drittwirkung von Grundrechten, sowie deren wirksame Einbeziehung und des Verstoßes gegen Treu und Glauben nicht entscheidungserheblich an.

II. Der auf die Unterlassung einer künftigen Löschung des in Klageantrags Ziffer 3 enthaltenen Beitrags gerichtete Klageantrag (Klageantrag Ziffer 4) ist unbegründet. Denn die künftige Löschung des streitgegenständlichen Beitrags kann der Beklagten – unabhängig von der Anspruchsgrundlage – nicht untersagt werden (vgl. zum Folgenden: OLG München, Beschluss vom 17.07.2018 – 18 W 858/18, juris Rn. 54 ff.).

Nach der Rechtsprechung des Bundesgerichtshofes geht das Verbot einer Äußerung ohne Bezugnahme auf den jeweiligen Kontext grundsätzlich zu weit, weil eine Untersagung stets eine Abwägung zwischen dem Recht des von der Äußerung Betroffenen, insbesondere auf Schutz seiner Persönlichkeit, und dem Recht des sich Äußernden auf Meinungs- und Medienfreiheit unter Berücksichtigung des Kontextes, in dem die Äußerung gefallen ist, voraussetzt. Ein Verbot ohne Bezugnahme auf den Kontext geht daher grundsätzlich zu weit (vgl. BGH, Urteil vom 11.12.2012 – VI ZR 314/10, juris Rn. 32). Bei der Prüfung der Frage, ob ein „kerngleicher“ Verstoß gegen eine titulierte Unterlassungsverpflichtung vorliegt, kann der Aussagegehalt der beiden Äußerungen unter Berücksichtigung ihres jeweiligen Kontextes miteinander verglichen werden. Der Kontext eines künftigen Textes, dessen Löschung der Kläger der Beklagten verbieten lassen will, ist aber erst bekannt, wenn der Text tatsächlich auf der Plattform der Beklagten eingestellt wird. Da die Rechtswidrigkeit einer Äußerung aber maßgeblich vom Kontext abhängt, in dem sie gefallen ist, kann im Vorfeld nicht entschieden werden, ob eine Löschung des künftigen Textbeitrags durch die Beklagte unzulässig wäre.

III. Ein Anspruch auf Datenberichtigung (Klageantrag Ziffer 1) besteht – unabhängig von der Zulässigkeit erfolgter Maßnahmen – nicht.

1. Zwar kann eine betroffene Person nach Art. 16 Satz 1 DS-GVO von dem Verantwortlichen die Berichtigung sie betreffender unrichtiger personenbezogener Daten verlangen.

Soweit die Beklagte vorgenommene Löschungen und Sperrungen in ihrem Datenbestand vermerkt hat, handelt es sich jedoch nicht um unrichtige Daten. Soweit die gespeicherten Daten Werturteile der Beklagten über das Vorliegen von Vertragsverstößen beinhalten sollten, könnte auch insoweit keine Datenberichtigung verlangt werden, weil es sich nicht um dem Wahrheitsbeweis zugängliche Tatsachen, sondern um rechtliche Bewertungen handelt, die schon wegen des Schutzes der Meinungsfreiheit aus dem Anwendungsbereich der Berichtigungspflicht ausgenommen sind, soweit sie keine Tatsachenbestandteile enthalten. Der Beklagten ist es mithin nicht verwehrt, ihre Auffassung zu vermerken, etwaige Löschungen und Sperrungen seien rechtmäßig gewesen, ohne dass damit ein Präjudiz für die Frage der Rechtmäßigkeit verbunden wäre. Für eine solche Bindungswirkung, die über die materielle Rechtskraft des Urteils hinausgeht, besteht keine rechtliche Grundlage. Es existiert keine Regelung, wonach von der Beklagten gespeicherte Daten verbindlich für die Beurteilung der Rechtslage seien (vgl. OLG Celle, Urteil vom 20.01.2022 – 13 U 84/19, juris Rn. 95 ff.).

b. Soweit der Kläger die Löschung aller Lösch- und Sperrvermerke aus dem Nutzerdatensatz begehrt, sieht Art. 16 Satz 1 DS-GVO eine solche Rechtsfolge nicht vor. Dem „Recht auf Berichtigung“ kann im Einzelfall auch dadurch – ggf. besser – Rechnung getragen werden, dass unrichtige Daten durch Hinzufügung von Vermerken in korrigierter Weise beibehalten werden.

c. Ein Anspruch auf Löschung gespeicherter Daten steht dem Kläger auch nicht nach Art. 17 Abs. 1 lit a) DS-GVO zu. Denn danach sind personenbezogene Daten auf Verlangen erst dann zu löschen, wenn sie für die Zwecke, für die sie erhoben oder auf sonstige Weise verarbeitet wurden, nicht mehr notwendig sind. Im Rahmen einer fortgesetzten Nutzung der Dienste der Beklagten ist diese jedoch zur Durchführung des Vertragsverhältnisses darauf angewiesen, Informationen zu etwaigen Löschungen und Sperrungen in den Konten ihrer Nutzer vorzuhalten.

d. Soweit eine Verpflichtung der Beklagten gemäß § 280 Abs. 1 BGB im Raume steht, Datensätze insoweit zu korrigieren, als ihnen vor dem Hintergrund der Rechtsprechung des Bundesgerichtshofs vom 29.07.2021, Az. III ZR 179/20 und III ZR 192/20, ungerechtfertigte Sanktionen des Klägers zugrunde liegen, stehen solche zur Überzeugung der Kammer nicht fest. Der insoweit darlegungs- und beweisbelastete Kläger (vgl. OLG München, Beschluss vom 07.01.2020 – 18 U 1491/19, juris Rn. 178) legt weder schlüssig noch substantiiert dar, welchen konkreten Inhalt die auf Seite 16 der Klageschrift (Bl. 16 d. A.) aufgelisteten und in der Vergangenheit gelöschten Beiträge hatten. Durch die Kammer kann somit nicht überprüft werden, ob vorliegend ein Löschung des jeweiligen Beitrags zulässig war.

IV. Der auf Freistellung von vorgerichtlichen Rechtsanwaltskosten gerichtete Klageantrag Ziffer 6 ist unbegründet.

1. Nach § 280 Abs. 1, § 249 Abs. 1, § 257 BGB kann der Kläger eine Freistellung von außergerichtlichen Rechtsanwaltskosten nicht beanspruchen.

Dem von einer Vertragspflichtverletzung Betroffenen ist es grundsätzlich zuzumuten, seinen Vertragspartner zunächst selbst auf Erfüllung der diesem obliegenden Pflichten in Anspruch zu nehmen. Ob dieser Grundsatz uneingeschränkt auch für den Anspruch auf Wiederherstellung eines zu Unrecht gelöschten Beitrags gilt, kann im vorliegenden Fall dahinstehen. Denn mit dem Schreiben an die Beklagte vom 20.09.2021 (Anlage K 13) hat der Klägervertreter die Beklagte unter Ziffer IV.1. lediglich zur unverzüglichen Freischaltung „etwaige(r) gelöschte(r) Beiträge“ aufgefordert. Darin kann keine hinreichend bestimmte vorgerichtliche Aufforderung zur Wiederherstellung des gelöschten streitgegenständlichen Beitrags gesehen werden (so auch OLG München, Beschluss vom 07.01.2020 -18 U 1491/19, juris Rn. 209 ff.).

2. Auch aus § 280 Abs. 2, § 286 Abs. 1 BGB kann der Kläger die Freistellung von außergerichtlicher Rechtsverfolgungskosten nicht verlangen, da sich die Beklagte bei Beauftragung der Klägervertreter nicht in Verzug befunden hat. Denn der insoweit darlegungs- und beweisbelastete Kläger hat weder schlüssig dargelegt, dass er die Beklagte vor Beauftragung seiner Prozessbevollmächtigten im Sinne von § 286 Abs. 1 Satz 1 BGB abgemahnt hat, noch war die Mahnung gemäß § 286 Abs. 2 BGB entbehrlich. Insbesondere liegt entgegen der Auffassung des Klägers keine Entbehrlichkeit nach § 286 Abs. 2 Nr. 1 BGB vor, da für die Leistung der Beklagten (Zur Verfügung Stellung der Plattform) keine Leistungszeit nach dem Kalender bestimmt ist. Auch liegt keine Entbehrlichkeit nach § 286 Abs. 2 Nr. 4 vor, da eine Abwägung der beiderseitigen Interessen einen sofortigen Eintritt des Verzugs nicht rechtfertigt.


Den Volltext der Entscheidung finden Sie hier: