Skip to content

EuGH-Vizepräsident: Eilantrag von Amazon gegen Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt

Vizepräsidenten des EuGH
Beschluss vom 27.03.2024
C-639/23 P(R)
EU-Kommission / Amazon Services Europe


Der EuGH-Vizepräsident hat den Eilantrag von Amazon gegen die Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt.

Die Pressemitteilung des EuGH:
Online-Werbung: Der Antrag von Amazon auf Aussetzung ihrer Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, wird zurückgewiesen

Amazon Services Europe gehört zum Amazon-Konzern. Ihre geschäftlichen Aktivitäten umfassen den OnlineEinzelhandel und weitere Dienstleistungen wie Cloud Computing und Online-Streaming. Sie erbringt OnlineMarktplatzdienste an Drittverkäufer und ermöglicht ihnen, Waren im Amazon Store zum Kauf anzubieten.

Mit Beschluss vom 23. April 20231 , der gemäß der Verordnung über einen Binnenmarkt für digitale Dienste erlassen wurde, benannte die Kommission Amazon Store als sehr große Online-Plattform. Dies bedeutet u. a., dass Amazon Store ein Werbearchiv mit detaillierten Informationen über ihre Online-Werbung öffentlich zugänglich machen muss. Amazon beantragte beim Gericht der Europäischen Union die Nichtigerklärung dieses Beschlusses. Sie stellte außerdem einen Antrag auf vorläufigen Rechtsschutz. Mit Beschluss vom 27. September 20234 ordnete der Präsident des Gerichts die Aussetzung des Beschlusses der Kommission an, soweit Amazon Store damit verpflichtet wird, das Werbearchiv öffentlich zugänglich zu machen. Die Kommission hat gegen den Beschluss des Präsidenten des Gerichts beim Gerichtshof ein Rechtsmittel eingelegt.

Mit seinem heutigen Beschluss hebt der Vizepräsident des Gerichtshofs den Teil des Beschlusses des Präsidenten des Gerichts auf, mit dem der Beschluss der Kommission in Bezug auf das Werbearchiv ausgesetzt wird. Er stellt fest, dass der Kommission unter Verstoß gegen den Grundsatz eines kontradiktorischen Verfahrens die Möglichkeit vorenthalten wurde, zu den Argumenten, die von Amazon im Verfahren vor dem Gericht vorgetragen wurden, Stellung zu nehmen. Da die Kommission vor dem Gerichtshof die Argumente vorgetragen hat, mit denen sie dem Vorbringen von Amazon vor dem Gericht entgegentreten wollte, entscheidet der Vizepräsident des Gerichtshofs den Rechtsstreit endgültig und weist den Antrag auf vorläufigen Rechtsschutz zurück.

Der Vizepräsident des Gerichtshofs ist der Ansicht, dass das Vorbringen von Amazon, die vom Unionsgesetzgeber eingeführte Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, schränke ihre Grundrechte auf Achtung des Privatlebens und auf unternehmerische Freiheit rechtswidrig ein, dem ersten Anschein nach nicht als unerheblich und außerdem völlig haltlos angesehen werden kann.

Zudem würde Amazon, wenn keine Aussetzung erfolgt, vor einem eventuell ergehenden Urteil, mit dem der Beschluss der Kommission für nichtig erklärt wird, wahrscheinlich einen schwerwiegenden und nicht wiedergutzumachenden Schaden erleiden.

Diese Feststellungen sind jedoch für sich allein genommen nicht entscheidend. Es ist nämlich zu prüfen, ob die Abwägung sämtlicher beteiligter Interessen die Versagung der Aussetzung rechtfertigen kann. Hierzu stellt der Vizepräsident des Gerichtshofs fest, dass Amazon in dem Fall, dass die Aussetzung nicht gewährt wird, weiterhin ein Interesse an der Nichtigerklärung des Beschlusses der Kommission hätte. Außerdem ist nicht dargetan, dass in diesem Fall die Existenz oder die langfristige Entwicklung von Amazon auf dem Spiel stünden. Darüber hinaus würde die Aussetzung bedeuten, das vollständige Erreichen der Ziele der Verordnung über einen Binnenmarkt für digitale Dienste möglicherweise über mehrere Jahre hinauszuschieben und damit möglicherweise ein OnlineUmfeld bestehen oder sich entwickeln zu lassen, das eine Bedrohung für die Grundrechte darstellt; der Unionsgesetzgeber war aber der Auffassung, dass die sehr großen Online-Plattformen eine wichtige Rolle in diesem Umfeld spielen. Die vom Unionsgesetzgeber vertretenen Interessen gehen im vorliegenden Fall den materiellen Interessen von Amazon vor, weshalb die Abwägung zugunsten der Zurückweisung des Aussetzungsantrags ausfällt.


Den Volltext des Beschlusses finden Sie hier:

Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz beschlossen - Gesetz zur Umsetzung des Digital Services Acts - DSA -

Der Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz (Gesetz zur Umsetzung des Digital Services Acts - DSA) beschlossen.

Siehe dazu auch Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

EU-Kommission: Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern

Die EU-Kommission hat ein förmliches Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste ein

Die Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob AliExpress in Bereichen im Zusammenhang mit dem Management und der Minderung von Risiken, der Moderation von Inhalten und dem internen Beschwerdemanagementsystem, der Transparenz von Werbe- und Empfehlungssystemen, der Rückverfolgbarkeit von Händlern und dem Datenzugang für Forscher möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich der Analyse des von AliExpress im August 2023 übermittelten Risikobewertungsberichts, der in seinem Transparenzbericht veröffentlichten Informationen und ihrer Antworten auf die förmlichen Auskunftsersuchen der Kommission (vom 6. November 2023 und 18. Januar 2024), hat die Kommission beschlossen, ein förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste in Bezug auf die Bewertung und Minderung der systemischen Risiken der Verbreitung illegaler Inhalte sowie tatsächliche oder vorhersehbare negative Auswirkungen auf den Verbraucherschutz, insbesondere im Zusammenhang mit
- Die mangelnde Durchsetzung von AliExpress-Dienstleistungsbedingungen, die bestimmte Produkte verbieten, die eine
Gefahr für die Gesundheit der Verbraucher darstellen (z. B. gefälschte Arzneimittel und Lebensmittel sowie
Nahrungsergänzungsmittel) und speziell für Minderjährige (Zugang zu pornografischem Material), die die Verbraucher noch
auf der Plattform finden können;
- Das Fehlen wirksamer Maßnahmen zur Verhinderung der Verbreitung illegaler Inhalte;
- Das Fehlen wirksamer Maßnahmen, um vorsätzliche Manipulationen auf der Online-Plattform durch sogenannte „versteckte
Links“ zu verhindern;
- Das Fehlen wirksamer Maßnahmen zur Vermeidung von Risiken aufgrund von Merkmalen wie Influencern, die illegale oder
schädliche Produkte im Rahmen des „verbundenen Programms“ von AliExpress fördern.

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, allen Nutzern, einschließlich derjenigen, die nicht registriert sind, zu ermöglichen, illegale Inhalte zu melden und eine Bestätigung des Eingangs der Meldung zu erhalten;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein wirksames internes Beschwerdemanagementsystem bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, die Zuverlässigkeit und Vollständigkeit der von Wirtschaftsbeteiligten, die AliExpress verwenden, angeforderten Informationen zu sammeln und zu bewerten, auch in Bezug auf Händler im Rahmen des „AliExpress Affiliate Program“, im Einklang mit der Rückverfolgbarkeit der Bestimmungen der Händler;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, für Transparenz in Bezug auf die wichtigsten Parameter zu sorgen, die in den Empfehlungssystemen von AliExpress verwendet werden, und mindestens eine Option eines Empfehlungssystems anzubieten, das nicht auf Profiling beruht;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf AliExpress bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, Forschern gemäß Artikel 40 des Gesetzes über digitale Dienste Zugang zu öffentlich zugänglichen Daten von AliExpress zu gewähren.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 16, 20, 26, 27, 30, 34, 35, 38, 39 und 40 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen zu ergreifen, z. B. einstweilige Maßnahmen zur Beendigung oder Behebung eines Verstoßes gegen Artikel 28 Absatz 1 und Beschlüsse wegen Nichteinhaltung. Die Kommission ist ferner befugt, von AliExpress eingegangene Verpflichtungszusagen anzunehmen, um Abhilfe in dem von dem Verfahren betroffenen Sachverhalt zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen die Artikel 16, 20, 26, 27 und 30 zu überwachen und durchzusetzen.

Die Einleitung eines förmlichen Verfahrens greift weder dem Ergebnis noch anderen Verfahren vor, die die Kommission nach anderen Artikeln des Gesetzes über digitale Dienste einleiten kann. Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die andere Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergreifen.

Hintergrund
AliExpress wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 104,3 Millionen monatlich aktive Nutzer in der EU gibt. Als VLOP musste AliExpress vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von Verpflichtungen aus dem Gesetz über digitale Dienste beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EU-Kommission: Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen der Bereiche Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung

Die EU-Kommission hat ein förmliches Verfahre gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen möglicher Mängel in den Bereichen Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok in Bereichen im Zusammenhang mit dem Jugendschutz, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich einer Analyse des von TikTok im September 2023 übermittelten Risikobewertungsberichts sowie der Antworten von TikTok auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten, zum Schutz Minderjähriger und zum Datenzugang), hat die Kommission beschlossen,ein förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

Die Einhaltung der Verpflichtungen im Rahmen des Gesetzes über digitale Dienste im Zusammenhang mit der Bewertung und Minderung systemischer Risiken in Bezug auf tatsächliche oder vorhersehbare negative Auswirkungen, die sich aus der Gestaltung des TikTok-Systems, einschließlich algorithmischer Systeme, ergeben und die Verhaltensabhängigkeit stimulieren und/oder sogenannte „Kabbit-Locheffekte“ hervorrufen können. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden der Person, die Achtung der Rechte des Kindes sowie dessen Auswirkungen auf Radikalisierungsprozesse entgegenzuwirken. Darüber hinaus sind die diesbezüglich bestehenden Risikominderungsmaßnahmen, insbesondere die von TikTok verwendeten Instrumente zur Altersüberprüfung, um den Zugang Minderjähriger zu unangemessenen Inhalten zu verhindern, möglicherweise nicht angemessen, verhältnismäßig und wirksam;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere in Bezug auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Gestaltung und Funktionsweise ihrer Empfehlungssysteme;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf TikTok bereitzustellen;
Die von TikTok ergriffenen Maßnahmen zur Erhöhung der Transparenz seiner Plattform. Die Untersuchung betrifft mutmaßliche Mängel beim Zugang von Forschern zu öffentlich zugänglichen Daten von TikTok gemäß Artikel 40 des Gesetzes über digitale Dienste.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1, Artikel 28 Absatz 1, Artikel 39 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die einen Verstoß nach dem Gesetz über digitale Dienste darstellen könnten, beispielsweise im Zusammenhang mit den Verpflichtungen eines Anbieters in Bezug auf die Verbreitung illegaler Inhalte wie terroristische Inhalte oder sexuellen Kindesmissbrauch im Internet oder die Meldung eines Verdachts auf Straftaten.

Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die von anderen Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergriffen werden.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
TikTok wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 135,9 Millionen monatlich aktive Nutzer in der EU hat. Als VLOP musste TikTok vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von im Gesetz über digitale Dienste festgelegten Verpflichtungen beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts (DSA) - Stand 15.01.2024 vorgelegt.

Aus dem Entwurf:
Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze

A. Problem und Ziel

Am 16. November 2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „DSA“ [= Digital Services Act]). Der DSA gilt ab dem 17. Februar 2024. Mit dem DSA wird ein horizontaler Rechtsrahmen, also ein einheitlicher Rechtsrahmen für alle Kategorien digitaler Vermittlungsdienste, geschaffen.

Ziel des DSA ist es, für alle Mitgliedstaaten der Europäischen Union (EU) einheitliche horizontale Regeln festzulegen für ein sicheres und vertrauenswürdiges Online-Umfeld, in dem die in der EU-Grundrechtecharta verankerten Grundrechte, darunter der Verbraucherschutz, wirksam geschützt werden. Zudem soll eine starke und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über digitale Vermittlungsdienste in der EU sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der auch Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennimmt und Zugriff auf die Daten der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) erhält. Ergänzend regelt der DSA das Verhältnis der digitalen Vermittlungsdienste zu ihren Nutzerinnen und Nutzern neu. So müssen Hostingdiensteanbieter Melde- und Abhilfeverfahren für illegale Inhalte vorhalten. Zudem werden Hostingdiensteanbieter zu Maßnahmen gegen illegale Aktivitäten und Anbieter von Online-Plattformen zu Maßnahmen gegen eine mögliche missbräuchliche Verwendung der Melde- und Abhilfeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. OnlineMarktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten wollen, vorher überprüfen. Ferner sieht der DSA im Bereich kommerzieller Werbung Transparenzverpflichtungen sowie ein Verwendungsverbot bestimmter personenbezogener Daten vor sowie für sehr große Online-Plattformen bzw. sehr große Online-Suchmaschinen strengere Verpflichtungen als für kleine und mittlere Anbieter. Dies alles soll die Sicherheit des digitalen Umfelds fördern. Schließlich wird ein Rahmen für die Umsetzung, Zusammenarbeit, Sanktionierung und Durchsetzung des DSA festgelegt, der konkrete, an die Mitgliedstaaten gerichtete Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.

B. Lösung

Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetz) wird der nationale Rechtsrahmen an den Vorgaben des DSA ausgerichtet und entsprechend angepasst.

Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste entweder anzupassen oder aufzuheben.

Der Gesetzentwurf schafft vor allem einen Rechtsrahmen für die behördliche Überwachung der Einhaltung von DSA-Vorschriften durch Anbieter von Vermittlungsdiensten. Zu diesem Zweck wird insbesondere eine zentrale Stelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und für die Durchsetzung des DSA benannt: Die Koordinierungsstelle für digitale Dienste wird innerhalb der zuständigen Bundesnetzagentur eingerichtet, um eine wirksame und zugleich unabhängige Aufsicht über digitale Vermittlungsdienste zu gewährleisten. Der vorliegende Entwurf regelt auch Organisation und Funktion der Koordinierungsstelle für digitale Dienste. Ergänzend werden Sonderzuständigkeiten für die Bundeszentrale für Kinder- und Jugendmedienschutz, für nach den medienrechtlichen Bestimmungen der Länder benannte Stellen und für den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit geschaffen. Zudem werden – wo nicht bereits durch den DSA geregelt – Befugnisse der vorgenannten Stellen festgelegt. Der Gesetzentwurf regelt ebenfalls die Zusammenarbeit der jeweils zuständigen Stellen mit weiteren Behörden, deren Zuständigkeit im Einzelfall berührt werden kann. Der vom DSA vorgegebene Spielraum für Sanktionen bei Verstößen gegen den DSA wird durch diesen Gesetzentwurf ausgeschöpft. Ergänzend werden erforderliche Gesetzesänderungen vorgenommen, um nationales Recht an die Terminologie des DSA anzupassen.


Den vollständigen Entwurf finden Sie hier:


EU-Kommission: Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet

Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.

Die Pressemitteilung des EU-Kommission:
The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.

On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.

The proceedings will focus on the following areas:

The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.

The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.

The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.

A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.

If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.

These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.

Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.

The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.

The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.

The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).

Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.

As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:

Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.

Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.

Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data
.



EuG-Präsident: Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt

EuG-Präsident
Anordnung vom 27.09.2023
T‑367/23 R
Amazon Services Europe Sàrl ./. EU-Kommission


Der EuG-Präsident hat angeordnet, dass die Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt wird. Über die Rechtsmäßigkeit der Einordnung muss der EuG noch entscheiden.

Tenor der Entscheidung:
1. Operation of the decision of the European Commission of 25 April 2023, with reference C(2023) 2746 final, designating Amazon Store as a very large online platform in accordance with Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act), is suspended in so far as, by virtue of that decision, Amazon Store will be required to make an advertisement repository publicly available, in accordance with Article 39 of that regulation, without prejudice to the requirement for the applicant to compile the advertisement repository.

2. The application for interim measures is dismissed as to the remainder.

3. The costs are reserved.

Den Volltext der Entscheidung finden Sie hier:


EU-Kommission: Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.

Die Pressemitteilung der EU-Kommission vom 25.04.2023:

Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:

Sehr große Online-Plattformen:

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:

Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.

Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:

Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.

Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:

Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.

Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:

Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.

Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.

Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.

Ein höheres Maß an Transparenz und Rechenschaftspflicht:

Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.

Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.

Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.

Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.

Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.



Betrug durch gefälschte Fake-Abmahnungen per E-Mail durch nicht existenten Rechtsanwalt Manuel Holleis aus Hamburg wegen angeblicher Urheberrechtsverletzungen

Aufgepasst ! Derzeit werden in großer Zahl per E-Mail betrügerische Fake-Abmahnungen eines tatsächlich nicht existenten Rechtsanwalts Manuel Holleis, Jungfernstieg 40, D-20354 Hamburg wegen angeblicher nicht näher spezifizierter Urheberrechtsverletzungen verschickt . Der Rechtsanwalt existiert nicht. Die Abmahnung genügt auch nicht ansatzweise den zwingenden Anforderung von § 97a UrhG. Betroffene sollten auf keinen Fall zahlen und auch nicht weiter auf die Abmahnung reagieren !

LG Nürnberg: Richtiges Klagebegehren bei unberechtigter Löschung eins Beitrags in einem sozialen Netzwerk ist die Wiederfreischaltung des gelöschten Beitrags

LG Nürnberg
Urteil vom 22.08.2023
11 O 6693/21


Das LG Nürnberg hat entschieden, dass das richtiges Klagebegehren bei unberechtigter Löschung eins Beitrags in einem sozialen Netzwerk die Wiederfreischaltung des gelöschten Beitrags ist.

Aus den Entscheidungsgründen:
A. Die Klage ist in ihrer zuletzt geänderten Fassung nur teilweise zulässig.

I. Es liegt eine zulässige Klageänderung vor.
1. Soweit der Kläger mit Schriftsatz vom 10.06.2022 (Bl. 94 ff. d. A.) den Klageantrag Ziffer 5 um einen Hilfsantrag erweiterte, liegt eine Änderung des Sachantrags, mithin eine Klageänderung vor.

2. Die vom Kläger vorgenommene Klageänderung ist als privilegierte Klageänderung gemäß § 264 Nr. 2 ZPO zulässig.

II. Die sonstigen Sachurteilsvoraussetzungen für die geänderte Klage liegen nur teilweise vor, da die Klageanträge Ziffer 2 und Ziffer 5 bereits unzulässig sind.

1. Das Landgericht Nürnberg-Fürth ist international, sachlich und örtlich zuständig.

Die deutschen Gerichte sind international zuständig, Art. 17 Abs. 1c, Abs. 2 i.V.m. Art. 18 Abs. 1 Alt. 2 EuGVVO. Das Landgericht Nürnberg-Fürth ist nach vorstehenden Ausführungen auch örtlich zuständig, da der Kläger seinen Wohnsitz im Bezirk des Landgerichts hat. Die sachliche Zuständigkeit des Landgerichts beruht auf § 1 ZPO, § 23 Nr. 1, § 71 Abs. 1 GVG.

2. Die Klage ist unzulässig, soweit der Kläger die Feststellung der Rechtswidrigkeit von der in dem Klageantrag Ziffer 2 genannten Sperre, Nutzungseinschränkung, Entfernung und Unterbindungshandlung begehrt. Der Klageantrag zielt insoweit nicht auf die Feststellung gegenwärtiger Rechtsverhältnisse im Sinne des § 256 Abs. 1, Abs. 2 ZPO ab (vgl. auch OLG Karlsruhe, Urteil vom 24.05.2022 – 14 U 270/20, juris Rn. 58 ff. mwN).

Der Aspekt, ob eine Kontensperrung rechtswidrig war, stellt kein Rechtsverhältnis dar, da die Qualifizierung eines Verhaltens als rechtmäßig oder rechtswidrig nicht unmittelbar Rechte und Pflichten begründet und daher kein Rechtsverhältnis zwischen Personen begründet. Von daher spielt es auch keine Rolle, ob die Rechtswidrigkeit von erfolgten Sperren eine Vorfrage bei der Entscheidung über andere Klageanträge darstellt. Schließlich erweist sich der Feststellungsantrag auch unter dem Gesichtspunkt des Vorrangs der Leistungsklage als unzulässig.

3. Ebenfalls unzulässig ist die Klage mit ihrem Klageantrag Ziffer 5 nebst Hilfsantrag.

a. Der Unterlassungsantrag ist – auch in der Fassung des Hilfsantrags – nicht hinreichend bestimmt im Sinne des § 253 Abs. 2 Nr. 2 ZPO. Unterlassungsanträge, die lediglich den Gesetzeswortlaut wiedergeben, sind in der Regel als zu unbestimmt und damit unzulässig anzusehen. Vorliegend gibt der Unterlassungsantrag zwar nicht einen Gesetzeswortlaut wieder, sondern knüpft an eine Handlung der Beklagten – die Vornahme einer Sperre des Klägers auf www.facebook.com – an. Dennoch entspricht das Klagebegehren in seiner Wirkung faktisch der bloßen Wiederholung einer Rechtslage, nämlich der Rechtslage in Anknüpfung an die Rechtsprechung des Bundesgerichtshofs zu den Voraussetzungen für die Vornahme einer Sperre (OLG Frankfurt, Urteil vom 30.06.2022 – 16 U 229/20, juris Rn. 59).

b. Zudem darf ein Verbotsantrag nicht derart undeutlich gefasst sein, dass Gegenstand und Umfang der Entscheidungsbefugnis des Gerichts (§ 308 Abs. 1 ZPO) nicht erkennbar abgegrenzt sind, sich der Beklagte deshalb nicht erschöpfend verteidigen kann und letztlich die Entscheidung darüber, was ihm verboten ist, dem Vollstreckungsgericht überlassen bleibt. Ein solcher Fall liegt hier vor. Den Fall der Kontosperre als Verletzungshandlung bzw. als Handlung, die nur nach Anhörung und Möglichkeit der Gegenäußerung zulässig wäre, gibt es nicht. Auch der Bundesgerichtshof hat in seiner Rechtsprechung deutlich gemacht, dass von einer Anhörung vor Durchführung der Maßnahme in eng begrenzten, in Allgemeinen Geschäftsbedingungen näher zu bestimmenden Ausnahmefällen abgesehen werden kann. Außerdem kann z. B. ein Wiederholungsfall vorliegen, der eine nochmalige Anhörung vor einer Sperre entbehrlich macht. Von daher ist die Verletzungshandlung, an die der geltend gemachte Unterlassungsanspruch anknüpft, nicht hinreichend bestimmt. Ließe man den Antrag zu, hätte die Beklagte keine Möglichkeit, sich umfassend und adäquat zu verteidigen (OLG Frankfurt, Urteil vom 30.06.2022 – 16 U 229/20, juris Rn. 60).

c. Schließlich handelt es sich bei dem Begehren des Klägers inhaltlich nicht um einen Unterlassungsanspruch, sondern um einen Anspruch auf zukünftiges positives Tun (Leistungsanspruch auf Information und Neubescheidung vor einer möglichen Sperre). Eine solche Klage ist nach § 259 ZPO nur zulässig, wenn ein Anspruch bereits entstanden ist. Ein Anspruch auf Information kann aber nicht vor Vornahme der entsprechenden Handlung (hier: Einstellung eines Posts, der zu einer Sperre Anlass geben könnte) entstehen (OLG Frankfurt, Urteil vom 30.06.2022 – 16 U 229/20, juris Rn. 61).

B. Die Voraussetzungen für eine zulässige Anspruchshäufung liegen vor, § 260 ZPO.

C. Die Klage ist, soweit über sie noch zu entscheiden ist, überwiegend unbegründet.

I. Der auf die Freischaltung des am 14.08.2021 gelöschten Beitrags (Klageantrag Ziffer 3) ist begründet, da der Kläger gegen die Beklagte gemäß § 280 Abs. 1 Satz 1 i.V.m. § 249 Abs. 1 BGB einen Anspruch hat, den von ihr am 14.08.2021 gelöschten Beitrag wieder freizuschalten.

1. Zwischen den Parteien besteht ein Nutzungsvertrag, der aufgrund der Rechtswahlklausel in Nr. 4.4 der Nutzungsbedingungen der Beklagten dem deutschen Recht unterliegt (so auch BGH, Urteil vom 29.07.2021 – III ZR 192/20, juris Rn. 38). Gemäß Nr. 1 ihrer Nutzungsbedingungen hat sich die Beklagte gegenüber dem Kläger verpflichtet, diesem ihre Produkte und Dienste zur Verfügung zu stellen, um ihm die Möglichkeit zu geben, mit anderen Nutzern in Kontakt zu treten und sich mit ihnen auszutauschen, insbesondere Nachrichten zu senden und Daten wie Texte, Fotos und Videos zu teilen. Daraus folgt, dass die Beklagte Beiträge, die der Kläger in ihr Netzwerk eingestellt hat, nicht grundlos löschen darf (BGH, Urteil vom 29.07.2021 – III ZR 192/20, juris Rn. 40).

2. Gegen diese vertragliche Verpflichtung hat die Beklagte durch die Löschung des streitgegenständlichen Beitrags verstoßen. Entgegen der Auffassung der Beklagten kann sie sich insoweit nicht auf den Entfernungs- und Sperrungsvorbehalt in Nr. 3.2 der (…)-Nutzungsbedingungen i.V.m. den Gemeinschaftsstandards zur „Hassrede“ berufen. Denn ausgehend von der in den Gemeinschaftsstandards zur „Hassrede“ geregelten Definition enthält der Beitrag des Klägers keine Hassrede im Sinne der Gemeinschaftsstandards.

a. Maßgeblich für die Deutung einer Äußerung ist die Ermittlung ihres objektiven Sinns aus der Sicht eines unvoreingenommenen und verständigen Publikums. Ausgehend vom Wortlaut, der allerdings den Sinn nicht abschließend festlegen kann, ist bei der Deutung der sprachliche Kontext, in dem die umstrittene Äußerung steht, zu berücksichtigen. Bei der Erfassung des Aussagegehalts muss die beanstandete Äußerung ausgehend von dem Verständnis eines unbefangenen Durchschnittslesers und dem allgemeinen Sprachgebrauch stets in dem Gesamtzusammenhang beurteilt werden, in dem sie gefallen ist. Sie darf nicht aus dem sie betreffenden Kontext herausgelöst einer rein isolierten Betrachtung zugeführt werden (BGH, Urteil vom 12.04.2016 – VI ZR 505/14, juris Rn. 11 mwN). Fern liegende Deutungen sind auszuscheiden. Ist der Sinn einer Äußerung unter Zugrundelegung des vorstehend erörterten Maßstabs eindeutig, ist er der weiteren Prüfung zugrunde zu legen. Zeigt sich dagegen, dass ein unvoreingenommenes und verständiges Publikum die Äußerung als mehrdeutig wahrnimmt, oder verstehen erhebliche Teile des Publikums den Inhalt jeweils unterschiedlich, ist von einem mehrdeutigen Inhalt auszugehen (BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1696/98, juris Rn. 31). Sind mehrere sich nicht gegenseitig ausschließende Deutungen des Inhalts einer Äußerung möglich, so ist der rechtlichen Beurteilung hinsichtlich von Sanktionen diejenige zugrunde zu legen, die dem in Anspruch Genommenen günstiger ist und den Betroffenen weniger beeinträchtigt (vgl. BGH, Urteil vom 25.11.2003, juris Rn. 26; BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1969/98, juris 33 ff.). Anders bei Unterlassungsansprüchen: Hier ist im Rahmen der rechtlichen Zuordnung von Meinungsfreiheit und Persönlichkeitsschutz zu berücksichtigen, dass der Äußernde die Möglichkeit hat, sich in der Zukunft eindeutig auszudrücken und damit zugleich klarzustellen, welcher Äußerungsinhalt der rechtlichen Prüfung einer Verletzung des Persönlichkeitsrechts zu Grunde zu legen ist (BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1969/98, juris Rn. 34). Ist der Äußernde nicht bereit, der Aussage einen eindeutigen Inhalt zu geben, besteht kein Grund, von einer Verurteilung zum Unterlassen nur deshalb abzusehen, weil die Äußerung mehrere Deutungsvarianten zulässt, darunter auch solche, die zu keiner oder nur einer geringeren Persönlichkeitsverletzung führen (BVerfG, Beschluss vom 25.10.2005 – 1 BvR 1969/98, juris Rn. 35).

b. Unter Zugrundelegung dieser Grundsätze liegt keine Hassrede im Sinne der Gemeinschaftsstandards der Beklagten vor. Denn die von der Beklagten in dem streitgegenständlichen Beitrag beanstandeten Äußerung „verblödete Deutsche“ stellt im vorliegenden Kontext keinen direkten Angriff auf Personen dar, auch wenn durch die Äußerung eine bestimmte Personengruppe aufgrund ihrer nationalen Herkunft identifizierbar ist.

aa. Die Äußerung „verblödete Deutsche“ stellt bereits ausgehend von dem objektiven Wortlaut und auch unter Berücksichtigung des Kontexts keine gewalttätige oder menschenverachtende Sprache und auch keinen Aufruf, Personen auszugrenzen oder zu isolieren, dar.

bb. Die Äußerung „verblödete Deutsche“ stellt überdies in der Zusammenschau der gegebenen tatsächlichen Umstände nicht eine als Hassrede definierte Aussage über Minderwertigkeit, schädliche Stereotypisierung oder einen Ausdruck der Verachtung, der Abscheu oder Ablehnung oder Beschimpfung dar. Denn die Äußerung des Klägers ist mehrdeutig und von der Beklagten ist – ausgehend von dem oben dargestellten Maßstab – bei der Prüfung der Löschung die für den Kläger günstigere Auslegung zugrunde zu legen.

(1) Zwar kann die Äußerung des Klägers, wie von der Beklagten behauptet, von einem Durchschnittsleser im Gesamtkontext als eine Aussage über die Minderwertigkeit der deutschen Bevölkerung bzw. Ausdruck der Verachtung gegenüber der deutschen Bevölkerung ausgelegt und verstanden werden.

Zum einen ist die Aussage „verblödet“ bereits nach dem Wortsinn ein Ausdruck der Verachtung und Minderwertigkeit. In den Gemeinschaftsstandards ist zudem definiert, dass es sich bei dem Wort „blöd“ um eine verbotene Verallgemeinerung handelt, die Minderwertigkeit aufgrund geistiger Einschränkungen der intellektuellen Fähigkeit zum Ausdruck bringe.

Die Äußerung des Klägers könnte vor diesem Hintergrund somit dahingehend verstanden werden, dass die deutsche Bevölkerung insgesamt oder jedenfalls ein repräsentativer, „typischer“ Deutscher“ „verblödet“ sei. Damit würde allen Menschen deutscher Nationalität verallgemeinernd verminderte intellektuelle Fähigkeiten zugeschrieben werden. Auch der Gesamtkontext würde einem solchen Verständnis nicht entgegenstehen. Denn unter Berücksichtigung des Gesamtkontextes kann die Äußerung dahingehend verstanden werden, dass die deutsche Bevölkerung im Vergleich zu Menschen anderer Herkunft über geringere geistige Fähigkeiten verfüge und sich daher leicht täuschen und ausnutzen lasse.

(2) Zugleich kann die Äußerung von einem Durchschnittsleser allerdings auch als Selbstkritik bzw. Selbstironie im Rahmen einer aktuellen politischen Diskussion über den Klimawandel verstanden werden. In diesem Fall würde die Äußerung des Klägers nicht unter die Definition der Hassrede in den Gemeinschaftsstandards fallen.

Es kann nicht ausgeschlossen werden, dass ein Durchschnittsleser die streitgegenständliche Äußerung, wie von dem Kläger vorgetragen, im Gesamtkontext dahingehend versteht, dass die beanstandete Wertung lediglich an das Verhalten und die Einstellung der Deutschen in Bezug auf den Klimawandel und die Klima- bzw. CO₂-Politik („grüner Ökowahn“) im internationalen Vergleich anknüpfe. Die Äußerung kann in diesem Gesamtkontext aufgrund der weiteren Aussagen „Autofahrer schröpfen“, „Industrie knebeln“ sowie der Aussage zur Verlagerung von Produktionsstandorten ins Ausland dahingehend verstanden werden, dass der Kläger die Deutschen kritisiere, dass diese einem „grünen Ökowahn“ unterlägen, der mit Nachteilen für die Deutschen und die deutsche Wirtschaft verbunden sei, während den Rest der Welt bzw. andere Länder der Klimawandel und Belastung der Umwelt nicht interessiere bzw. andere Länder auch noch von dem „Ökowahn“ der Deutschen profitieren würden, weil Produktionsstandorte von Deutschland ins Ausland verlagert werden.

Vor diesem Hintergrund kann nicht ausgeschlossen werden, dass ein Durchschnittsleser die Äußerung als (überspitzt formulierte) Selbstkritik bzw. Selbstironie und nicht als Ausdruck der Minderwertigkeit versteht.
42
(3) Da es sich bei der Löschung des Beitrags um eine Sanktion der Beklagten dem Kläger gegenüber handelt, ist bei der Prüfung der Rechtmäßigkeit der Löschung aufgrund des oben dargestellten Maßstabes die für den Kläger günstigste Auslegung zugrunde zu legen. Da die Äußerung, wie bereits dargestellt, auch dahingehend verstanden und ausgelegt werden kann, dass keine Hassrede im Sinne der Gemeinschaftsstandards vorliegt, war die Löschung rechtswidrig und der Beitrag ist wiederherzustellen.

Soweit die Beklagte im Schriftsatz vom 04.04.2022 (Bl. 71 d. A. Rückseite) geltend macht, andere Gerichte hätten bereits entschieden, dass eine Darstellung der Deutschen als dumm bzw. intellektuell minderbemittelt eine Hassrede im Sinne der Gemeinschaftsstandards darstelle, führt dies zu keiner anderen rechtlichen Beurteilung. Entsprechende Urteile sind weder veröffentlicht noch vorgelegt. Es kann daher nicht überprüft werden, ob die den Entscheidungen zugrunde liegenden Äußerungen mit der streitgegenständlichen Äußerung im konkreten Zusammenhang identisch sind.

c. Da der streitgegenständliche Beitrag mangels Erfüllung eines dort genannten Straftatbestands auch keinen rechtswidrigen Inhalt im Sinne von § 1 Abs. 3 NetzDG darstellt, kommt eine hierauf gestützte Löschung des Beitrages nicht in Betracht.

3. Es ist weder dargetan noch sonst ersichtlich, dass die Beklagte die in der Entfernung des Beitrags bestehende Pflichtverletzung nicht zu vertreten hat (§ 280 Abs. 1 Satz 2 BGB). Gemäß § 249 Abs. 1 BGB ist die Beklagte zur Wiederherstellung des Beitrags verpflichtet. Denn der durch die Pflichtverletzung verursachte Schaden des Klägers besteht darin, dass sein Beitrag auf der Plattform der Beklagten nicht mehr gespeichert ist und von den anderen Nutzern nicht mehr gelesen werden kann (vgl. BGH, Urteil vom 29.07.2021 – III ZR 192/20, juris Rn. 111).

4. Vor diesem Hintergrund kommt es auf die Fragen der Wirksamkeit der Nutzungsbedingungen, insbesondere im Hinblick auf die Drittwirkung von Grundrechten, sowie deren wirksame Einbeziehung und des Verstoßes gegen Treu und Glauben nicht entscheidungserheblich an.

II. Der auf die Unterlassung einer künftigen Löschung des in Klageantrags Ziffer 3 enthaltenen Beitrags gerichtete Klageantrag (Klageantrag Ziffer 4) ist unbegründet. Denn die künftige Löschung des streitgegenständlichen Beitrags kann der Beklagten – unabhängig von der Anspruchsgrundlage – nicht untersagt werden (vgl. zum Folgenden: OLG München, Beschluss vom 17.07.2018 – 18 W 858/18, juris Rn. 54 ff.).

Nach der Rechtsprechung des Bundesgerichtshofes geht das Verbot einer Äußerung ohne Bezugnahme auf den jeweiligen Kontext grundsätzlich zu weit, weil eine Untersagung stets eine Abwägung zwischen dem Recht des von der Äußerung Betroffenen, insbesondere auf Schutz seiner Persönlichkeit, und dem Recht des sich Äußernden auf Meinungs- und Medienfreiheit unter Berücksichtigung des Kontextes, in dem die Äußerung gefallen ist, voraussetzt. Ein Verbot ohne Bezugnahme auf den Kontext geht daher grundsätzlich zu weit (vgl. BGH, Urteil vom 11.12.2012 – VI ZR 314/10, juris Rn. 32). Bei der Prüfung der Frage, ob ein „kerngleicher“ Verstoß gegen eine titulierte Unterlassungsverpflichtung vorliegt, kann der Aussagegehalt der beiden Äußerungen unter Berücksichtigung ihres jeweiligen Kontextes miteinander verglichen werden. Der Kontext eines künftigen Textes, dessen Löschung der Kläger der Beklagten verbieten lassen will, ist aber erst bekannt, wenn der Text tatsächlich auf der Plattform der Beklagten eingestellt wird. Da die Rechtswidrigkeit einer Äußerung aber maßgeblich vom Kontext abhängt, in dem sie gefallen ist, kann im Vorfeld nicht entschieden werden, ob eine Löschung des künftigen Textbeitrags durch die Beklagte unzulässig wäre.

III. Ein Anspruch auf Datenberichtigung (Klageantrag Ziffer 1) besteht – unabhängig von der Zulässigkeit erfolgter Maßnahmen – nicht.

1. Zwar kann eine betroffene Person nach Art. 16 Satz 1 DS-GVO von dem Verantwortlichen die Berichtigung sie betreffender unrichtiger personenbezogener Daten verlangen.

Soweit die Beklagte vorgenommene Löschungen und Sperrungen in ihrem Datenbestand vermerkt hat, handelt es sich jedoch nicht um unrichtige Daten. Soweit die gespeicherten Daten Werturteile der Beklagten über das Vorliegen von Vertragsverstößen beinhalten sollten, könnte auch insoweit keine Datenberichtigung verlangt werden, weil es sich nicht um dem Wahrheitsbeweis zugängliche Tatsachen, sondern um rechtliche Bewertungen handelt, die schon wegen des Schutzes der Meinungsfreiheit aus dem Anwendungsbereich der Berichtigungspflicht ausgenommen sind, soweit sie keine Tatsachenbestandteile enthalten. Der Beklagten ist es mithin nicht verwehrt, ihre Auffassung zu vermerken, etwaige Löschungen und Sperrungen seien rechtmäßig gewesen, ohne dass damit ein Präjudiz für die Frage der Rechtmäßigkeit verbunden wäre. Für eine solche Bindungswirkung, die über die materielle Rechtskraft des Urteils hinausgeht, besteht keine rechtliche Grundlage. Es existiert keine Regelung, wonach von der Beklagten gespeicherte Daten verbindlich für die Beurteilung der Rechtslage seien (vgl. OLG Celle, Urteil vom 20.01.2022 – 13 U 84/19, juris Rn. 95 ff.).

b. Soweit der Kläger die Löschung aller Lösch- und Sperrvermerke aus dem Nutzerdatensatz begehrt, sieht Art. 16 Satz 1 DS-GVO eine solche Rechtsfolge nicht vor. Dem „Recht auf Berichtigung“ kann im Einzelfall auch dadurch – ggf. besser – Rechnung getragen werden, dass unrichtige Daten durch Hinzufügung von Vermerken in korrigierter Weise beibehalten werden.

c. Ein Anspruch auf Löschung gespeicherter Daten steht dem Kläger auch nicht nach Art. 17 Abs. 1 lit a) DS-GVO zu. Denn danach sind personenbezogene Daten auf Verlangen erst dann zu löschen, wenn sie für die Zwecke, für die sie erhoben oder auf sonstige Weise verarbeitet wurden, nicht mehr notwendig sind. Im Rahmen einer fortgesetzten Nutzung der Dienste der Beklagten ist diese jedoch zur Durchführung des Vertragsverhältnisses darauf angewiesen, Informationen zu etwaigen Löschungen und Sperrungen in den Konten ihrer Nutzer vorzuhalten.

d. Soweit eine Verpflichtung der Beklagten gemäß § 280 Abs. 1 BGB im Raume steht, Datensätze insoweit zu korrigieren, als ihnen vor dem Hintergrund der Rechtsprechung des Bundesgerichtshofs vom 29.07.2021, Az. III ZR 179/20 und III ZR 192/20, ungerechtfertigte Sanktionen des Klägers zugrunde liegen, stehen solche zur Überzeugung der Kammer nicht fest. Der insoweit darlegungs- und beweisbelastete Kläger (vgl. OLG München, Beschluss vom 07.01.2020 – 18 U 1491/19, juris Rn. 178) legt weder schlüssig noch substantiiert dar, welchen konkreten Inhalt die auf Seite 16 der Klageschrift (Bl. 16 d. A.) aufgelisteten und in der Vergangenheit gelöschten Beiträge hatten. Durch die Kammer kann somit nicht überprüft werden, ob vorliegend ein Löschung des jeweiligen Beitrags zulässig war.

IV. Der auf Freistellung von vorgerichtlichen Rechtsanwaltskosten gerichtete Klageantrag Ziffer 6 ist unbegründet.

1. Nach § 280 Abs. 1, § 249 Abs. 1, § 257 BGB kann der Kläger eine Freistellung von außergerichtlichen Rechtsanwaltskosten nicht beanspruchen.

Dem von einer Vertragspflichtverletzung Betroffenen ist es grundsätzlich zuzumuten, seinen Vertragspartner zunächst selbst auf Erfüllung der diesem obliegenden Pflichten in Anspruch zu nehmen. Ob dieser Grundsatz uneingeschränkt auch für den Anspruch auf Wiederherstellung eines zu Unrecht gelöschten Beitrags gilt, kann im vorliegenden Fall dahinstehen. Denn mit dem Schreiben an die Beklagte vom 20.09.2021 (Anlage K 13) hat der Klägervertreter die Beklagte unter Ziffer IV.1. lediglich zur unverzüglichen Freischaltung „etwaige(r) gelöschte(r) Beiträge“ aufgefordert. Darin kann keine hinreichend bestimmte vorgerichtliche Aufforderung zur Wiederherstellung des gelöschten streitgegenständlichen Beitrags gesehen werden (so auch OLG München, Beschluss vom 07.01.2020 -18 U 1491/19, juris Rn. 209 ff.).

2. Auch aus § 280 Abs. 2, § 286 Abs. 1 BGB kann der Kläger die Freistellung von außergerichtlicher Rechtsverfolgungskosten nicht verlangen, da sich die Beklagte bei Beauftragung der Klägervertreter nicht in Verzug befunden hat. Denn der insoweit darlegungs- und beweisbelastete Kläger hat weder schlüssig dargelegt, dass er die Beklagte vor Beauftragung seiner Prozessbevollmächtigten im Sinne von § 286 Abs. 1 Satz 1 BGB abgemahnt hat, noch war die Mahnung gemäß § 286 Abs. 2 BGB entbehrlich. Insbesondere liegt entgegen der Auffassung des Klägers keine Entbehrlichkeit nach § 286 Abs. 2 Nr. 1 BGB vor, da für die Leistung der Beklagten (Zur Verfügung Stellung der Plattform) keine Leistungszeit nach dem Kalender bestimmt ist. Auch liegt keine Entbehrlichkeit nach § 286 Abs. 2 Nr. 4 vor, da eine Abwägung der beiderseitigen Interessen einen sofortigen Eintritt des Verzugs nicht rechtfertigt.


Den Volltext der Entscheidung finden Sie hier:


BMDV: Entwurf Digitale-Dienste-Gesetz (DDG) zur Umsetzung des Digital Services Acts (DSA)

Das BMDV hat den Entwurf des Digitale-Dienste-Gesetz (DDG) zur Umsetzung des Digital Services Acts (DSA) vorgelegt.

Aus dem Entwurf:
A. Problem und Ziel
Am 16. November 2022 ist die Verordnung des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „Digital Services Act“ oder „DSA“). Die Verordnung gilt ab dem 17. Februar 2024. Mit der Verordnung wird ein horizontaler Rechtsrahmen für digitale Dienste geschaffen.

Ziel des DSA ist es, einheitliche horizontale Regeln festzulegen für ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld. Zudem soll eine robuste und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über Online-Plattformen in Europa sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennehmen und Zugriff auf die Daten der Plattformen erhalten soll. Ergänzend regelt der DSA das Verhältnis der Plattformen zu ihren Nutzerinnen und Nutzern neu. Die Anbieter müssen ein Melde- und Beschwerdeverfahren für illegale Inhalte vorhalten. Zudem werden Online-Plattformen zu Maßnahmen gegen illegale Aktivitäten und Missbrauch der Meldeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. Online-Marktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten, vorher überprüfen. Ferner sieht der DSA Transparenzverpflichtungen für kommerzielle Werbung vor, sowie strengere Verpflichtungen für sehr große Plattformen / Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) als für kleine und mittlere Anbieter vor. Dies alles soll ein sicheres digitales Umfeld fördern. Schließlich wird ein Rahmen für die Umsetzung, die Zusammenarbeit, für Sanktionen und die Durchsetzung des DSA angelegt, der konkrete, an die Mitgliedstaaten gerichteten Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.

B. Lösung

Der DSA ist im nationalen Recht durchzuführen und das nationale Recht ist anzupassen. Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetzes, oder DDG) ist der nationale Rechtsrahmen auf die Vorgaben des DSA auszurichten und anzupassen. Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste, abzulösen. Zur Durchführung des DSA sind insbesondere die zuständige nationale Koordinierungsstelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und zur Durchsetzung des DSA zu benennen, Sanktionsvorschriften zu erlassen und erforderliche Gesetzesänderungen vorzunehmen


Den vollständigen Entwurf finden Sie hier:


Internet World Commerce Briefing 01/23 - Beitrag von Rechtsanwalt Marcus Beckmann - Neue Gesetze: Was 2023 für Händler wichtig wird

Im Internet World Commerce Briefing 01/23 erschien ein Beitrag von Rechtsanwalt Marcus Beckmann mit dem Titel "Neue Gesetze: Was 2023 für Händler wichtig wird".

Verordnung (EU) 2022/2065 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG - Gesetz über digitale Dienste - im Amtsblatt der EU veröffentlicht

Die Verordnung (EU) 2022/2065 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG - (Gesetz über digitale Dienste) wurde im Amtsblatt der EU veröffentlicht. Die Verordnung gilt ab dem 17.02.2024.

Aus den Erwägungsgründen:

Dienste der Informationsgesellschaft und insbesondere Vermittlungsdienste sind mittlerweile ein wichtiger Bestandteil der Volkswirtschaft der Union und des Alltags ihrer Bürgerinnen und Bürger. Zwanzig Jahre nach der Annahme des bestehenden, auf derlei Dienste anwendbaren Rechtsrahmens, der in der Richtlinie 2000/31/EG des Europäischen Parlaments und des Ratesfestgelegt ist, bieten neue und innovative Geschäftsmodelle und Dienste wie soziale Netzwerke und Online-Plattformen, die Verbrauchern den Abschluss von Fernabsatzverträgen mit Unternehmern ermöglichen, Geschäftskunden und Verbrauchern nun die Möglichkeit, auf neuartige Weise Informationen weiterzugeben und darauf zuzugreifen und Geschäftsvorgänge durchzuführen. Eine Mehrheit der Bürgerinnen und Bürger der Union nutzt diese Dienste inzwischen täglich. Der digitale Wandel und die verstärkte Nutzung dieser Dienste haben jedoch auch neue Risiken und Herausforderungen mit sich gebracht, und zwar für den einzelnen Nutzer des jeweiligen Dienstes, die Unternehmen und für die Gesellschaft als Ganzes.

Die Mitgliedstaaten führen zunehmend nationale Rechtsvorschriften zu den von dieser Verordnung abgedeckten Angelegenheiten ein, oder ziehen dies in Erwägung, und schaffen damit insbesondere Sorgfaltspflichten für Anbieter von Vermittlungsdiensten im Hinblick auf die Art und Weise, wie jene gegen rechtswidrige Inhalte, Online-Desinformation oder andere gesellschaftliche Risiken vorgehen sollten. Unter Berücksichtigung des von Natur aus grenzüberschreitenden Charakters des Internets, das im Allgemeinen für die Bereitstellung dieser Dienste verwendet wird, beeinträchtigen diese unterschiedlichen nationalen Rechtsvorschriften den Binnenmarkt, der gemäß Artikel 26 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) ein Raum ohne Binnengrenzen ist, in dem der freie Verkehr von Waren und Dienstleistungen sowie die Niederlassungsfreiheit gewährleistet sind. Die Bedingungen für die Erbringung von Vermittlungsdiensten im gesamten Binnenmarkt sollten harmonisiert werden, um Unternehmen Zugang zu neuen Märkten und Chancen zur Nutzung der Vorteile des Binnenmarkts zu verschaffen und gleichzeitig den Verbrauchern und anderen Nutzern eine größere Auswahl zu bieten. Für die Zwecke dieser Verordnung werden gewerbliche Nutzer, Verbraucher und andere Nutzer als „Nutzer“ angesehen.

Damit das Online-Umfeld sicher, berechenbar und vertrauenswürdig ist und sowohl Bürgerinnen und Bürger der Union als auch andere Personen die ihnen in der Charta der Grundrechte der Europäischen Union (im Folgenden „Charta“) garantierten Grundrechte ausüben können, insbesondere das Recht auf Meinungs- und Informationsfreiheit, auf unternehmerische Freiheit, das Recht auf Nichtdiskriminierung und die Erreichung eines hohen Verbraucherschutzniveaus, ist unbedingt ein verantwortungsvolles und sorgfältiges Verhalten der Anbieter von Vermittlungsdiensten erforderlich.

Um das Funktionieren des Binnenmarkts sicherzustellen und zu verbessern, sollten daher auf Unionsebene verbindliche gezielte, einheitliche, wirksame und verhältnismäßige Vorschriften festgelegt werden. Mit dieser Verordnung werden die Voraussetzungen dafür geschaffen, dass im Binnenmarkt innovative digitale Dienste entstehen und expandieren können. Die Angleichung der nationalen Regulierungsmaßnahmen bezüglich der Anforderungen an Anbieter von Vermittlungsdiensten auf Unionsebene ist erforderlich, um eine Fragmentierung des Binnenmarkts zu verhindern und zu beenden, für Rechtssicherheit zu sorgen und somit die Unsicherheit für Entwickler zu verringern und die Interoperabilität zu fördern. Durch die technologieneutrale Gestaltung der Anforderungen sollte die Innovation nicht gehemmt, sondern vielmehr gefördert werden.



EU-Parlament und EU-Rat einigen sich über Digital Services Act - Gesetz über digitale Dienste

EU-Parlament und EU-Rat haben sich über den Digital Services Act bzw. das Gesetz über digitale Dienste geeinigt.

Die Pressemitteilung der EU:

Digital Services Act: agreement for a transparent and safe online environment

- Access to platforms’ algorithms now possible
- Online platforms will have to remove illegal products, services or content swiftly after they have been reported
- Protection of minors online reinforced; additional bans on targeted advertising for minors as well as targeting based on sensitive data
- Users will be better informed how content is recommended to them

EU negotiators agree on landmark rules to effectively tackle the spread of illegal content online and protect people's fundamental rights in the digital sphere.

On Friday, Parliament and Council reached a provisional political agreement on the Digital Services Act (DSA). Together with the Digital Markets Act, the DSA will set the standards for a safer and more open digital space for users and a level playing field for companies for years to come.


More responsible online platforms


Under the new rules, intermediary services, namely online platforms - such as social media and marketplaces - will have to take measures to protect their users from illegal content, goods and services.

Algorithmic accountability: the European Commission as well as the member states will have access to the algorithms of very large online platforms;
Swift removal of illegal content online, including products, services: a clearer “notice and action” procedure where users will be empowered to report illegal content online and online platforms will have to act quickly;
Fundamental rights to be protected also online: stronger safeguards to ensure notices are processed in a non-arbitrary and non-discriminatory manner and with respect for fundamental rights, including the freedom of expression and data protection;
More responsible online marketplaces: they have to ensure that consumers can purchase safe products or services online, by strengthening checks to prove that the information provided by traders is reliable (“Know Your Business Customer” principle) and make efforts to prevent illegal content appearing on their platforms, including through random checks;
Victims of cyber violence will be better protected especially against non-consensual sharing (revenge porn) with immediate takedowns;
Penalties: online platforms and search engines can be fined up to 6% of their worldwide turnover. In the case of very large online platforms (with more that 45 million users), the EU Commission will have exclusive power to demand compliance;
Fewer burdens and more time to adapt for SMEs: longer period to apply the new rules will support innovation in the digital economy. The Commission will follow closely the potential economic effects of the new obligations on small businesses.
Safer online space for users

New transparency obligations for platforms will allow users to be better informed about how content is recommended to them (recommender systems) and to choose at least one option not based on profiling;
Online advertising: users will have better control over how their personal data are used. Targeted advertising is banned when it comes to sensitive data (e.g. based on sexual orientation, religion, ethnicity);
Protection of minors: platforms accessible to minors will have to take specific measures to protect them, including by fully banning targeted advertising;
Manipulating users’ choices through ‘dark patterns’ will be prohibited: online platforms and marketplaces should not nudge people into using their services, for example by giving more prominence to a particular choice or urging the recipient to change their choice via interfering pop-ups. Moreover, cancelling a subscription for a service should become as easy as subscribing to it;
Compensation: recipients of digital services will have a right to seek redress for any damages or loss suffered due to infringements by platforms.

Harmful content and disinformation


Very large online platforms will have to comply with stricter obligations under the DSA, proportionate to the significant societal risks they pose when disseminating illegal and harmful content, including disinformation.

Very large online platforms will have to assess and mitigate systemic risks and be subject to independent audits each year. In addition, those large platforms that use so-called “recommender systems” (algorithms that determine what users see) must provide at least one option that is not based on profiling;
Special measures in times of crisis: when a crisis occurs, such as a public security or health threat, the Commission may require very large platforms to limit any urgent threats on its platforms. These specific actions are limited to three months.
Quote


“The Digital Services Act will set new global standards. Citizens will have better control over how their data are used by online platforms and big tech-companies. We have finally made sure that what is illegal offline is also illegal online. For the European Parliament, additional obligations on algorithmic transparency and disinformation are important achievements,” said rapporteur Christel Schaldemose (DK, S&D). “These new rules also guarantee more choice for users and new obligations for platforms on targeted ads, including bans to target minors and restricting data harvesting for profiling.”

Next steps

The text will need to be finalised at technical level and verified by lawyer-linguists, before both Parliament and Council give their formal approval. Once this process is completed, it will come into force 20 days after its publication in the EU Official Journal and the rules will start to apply 15 months later.

From 23 to 27 May, a delegation from the EP’s Internal Market Committee will visit several company headquarters (Meta, Google, Apple and others) in Silicon Valley to discuss in person the Digital Services Act package, and other digital legislation in the pipeline, and hear the position of American companies, start-ups, academia and government officials.