Skip to content

EU-Kommission: Weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite

Die EU-Kommission hat ein weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite eingleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet Verfahren gegen TikTok im Rahmen des Gesetzes über digitale Dienste wegen des Starts von TikTok Lite in Frankreich und Spanien ein und teilt ihre Absicht mit, das Belohnungsprogramm in der EU auszusetzen

Die Kommission hat heute ein zweites förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste (DSA) eingeleitet. Mit der heutigen Eröffnung soll geprüft werden, ob das Unternehmen bei der Gründung von TikTok Lite in Frankreich und Spanien möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Die Kommission ist besorgt darüber, dass das „Task and Reward Program“ von TikTok Lite, das es Nutzern ermöglicht, Punkte zu erhalten, wenn sie bestimmte „Aufgaben“ auf TikTok erfüllen – wie z. B. Videos, Liking-Inhalte, Nachbereiter, Einladung von Freunden zum Beitritt zu TikTok usw. – ohne vorherige sorgfältige Bewertung der damit verbundenen Risiken, insbesondere der mit dem Suchteffekt der Plattformen verbundenen Risiken, und ohne wirksame Risikominderungsmaßnahmen zu ergreifen. Dies ist für Kinder besonders besorgniserregend, da auf TikTok vermutet wird, dass es keine wirksamen Mechanismen zur Altersüberprüfung gibt. Das Fehlen wirksamer Mechanismen zur Altersüberprüfung und die mutmaßliche suchterzeugende Gestaltung der Plattformen werden bereits im ersten förmlichen Verfahren gegen TikTok untersucht.

Die Untersuchung wird sich daher auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtung von TikTok, vor der Einführung von Funktionen, in diesem Fall des Programms „Task and Reward Lite“, einen Risikobewertungsbericht zu erstellen und vorzulegen, die wahrscheinlich kritische Auswirkungen auf Systemrisiken haben werden. Insbesondere negative Auswirkungen auf die psychische Gesundheit, einschließlich der psychischen Gesundheit Minderjähriger, insbesondere aufgrund des neuen Merkmals, das Suchtverhalten stimuliert.
- Die von TikTok ergriffenen Maßnahmen zur Minderung dieser Risiken.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Darüber hinaus übermittelte die Kommission TikTok auf der Grundlage eines Beschlusses der Kommission ein förmliches Auskunftsverlangen, in dem das Unternehmen zur Beantwortung seines Auskunftsersuchens vom 17. April 2024 aufgefordert wurde. Insbesondere hatte die Kommission TikTok aufgefordert, bis zum 18. April den Risikobewertungsbericht für TikTok Lite sowie Informationen über die Maßnahmen vorzulegen, die die Plattform ergriffen hat, um potenzielle systemische Risiken dieser neuen Funktionen zu mindern. TikTok hat dieses Dokument nicht fristgerecht vorgelegt.

TikTok hat nun bis zum 23. April Zeit, der Kommission den Risikobewertungsbericht und bis zum 3. Mai die übrigen angeforderten Informationen vorzulegen.

Falls TikTok das Auskunftsersuchen der Kommission nicht innerhalb der angegebenen Fristen per Beschluss beantwortet, kann die Kommission Geldbußen in Höhe von bis zu 1 % des jährlichen Gesamtumsatzes oder des weltweiten Gesamtumsatzes des Anbieters sowie Zwangsgelder in Höhe von bis zu 5 % des durchschnittlichen Tageseinkommens des Anbieters oder des weltweiten Jahresumsatzes verhängen.

Da TikTok nicht in der Lage war, die Risikobewertung vorzulegen, die vor der Einführung von TikTok Lite hätte durchgeführt werden müssen, vermutet die Kommission einen prima facie Verstoß gegen das Gesetz über digitale Dienste und ist der Auffassung, dass die Gefahr einer schwerwiegenden Schädigung der psychischen Gesundheit der Nutzer besteht. Die Kommission hat TikTok daher auch ihre Absicht mitgeteilt, vorläufige Maßnahmen zu ergreifen, die in der Aussetzung des Programms „TikTok Lite“ in der EU bis zur Bewertung seiner Sicherheit bestehen. Es könnte verlängert werden, wenn dies notwendig und verhältnismäßig ist. Vor der förmlichen Annahme der Aussetzung wurde TikTok bis zum 24. April Zeit eingeräumt, in seiner Verteidigung Argumente vorzubringen, die die Kommission sorgfältig prüfen wird.

Nächste Schritte
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße zu überwachen und durchzusetzen.

Hintergrund
Am 25. April 2023 benannte die Kommission TikTok gemäß dem Gesetz über digitale Dienste auf der Grundlage der TikTok -Nutzerdatenbank, die den Schwellenwert von 45 Millionen durchschnittlichen aktiven Nutzern in der EU erreicht, TikTok als sehr große Online-Plattform. Seit Ende August 2023 unterliegt TikTok den Verpflichtungen aus dem Gesetz über digitale Dienste.

TikTok Lite ist eine neue App mit einer Funktion für Nutzer ab 18 Jahren, die als „Task and Reward Program“ bezeichnet wird und es Nutzern ermöglicht, bei der Ausführung bestimmter „Aufgaben“ auf TikTok Punkte zu erhalten, wie z. B. Videos anschauen, Liking-Inhalte, Nachschaffende, Einladung von Freunden zum TikTok usw. Diese Punkte können gegen Belohnung wie Amazon-Gutscheine, Geschenkkarten über PayPal oder TikTok-Münzen, die für Kipper ausgegeben werden können, ausgetauscht werden. TikTok Lite wurde im letzten Monat in Frankreich und Spanien ins Leben gerufen.

Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Im Februar 2024 leitete die Kommission ein erstes förmliches Verfahren gegen TikTok ein, um zu prüfen, ob TikTok möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit dem Schutz Minderjähriger, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte zusammenhängen. Die Untersuchung ist noch nicht abgeschlossen.

Derzeit sind zwei weitere förmliche Verfahren im Rahmen des Gesetzes über digitale Dienste anhängig: eine gegen X und eine gegen AliExpress.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EuGH-Vizepräsident: Eilantrag von Amazon gegen Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt

Vizepräsidenten des EuGH
Beschluss vom 27.03.2024
C-639/23 P(R)
EU-Kommission / Amazon Services Europe


Der EuGH-Vizepräsident hat den Eilantrag von Amazon gegen die Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt.

Die Pressemitteilung des EuGH:
Online-Werbung: Der Antrag von Amazon auf Aussetzung ihrer Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, wird zurückgewiesen

Amazon Services Europe gehört zum Amazon-Konzern. Ihre geschäftlichen Aktivitäten umfassen den OnlineEinzelhandel und weitere Dienstleistungen wie Cloud Computing und Online-Streaming. Sie erbringt OnlineMarktplatzdienste an Drittverkäufer und ermöglicht ihnen, Waren im Amazon Store zum Kauf anzubieten.

Mit Beschluss vom 23. April 20231 , der gemäß der Verordnung über einen Binnenmarkt für digitale Dienste erlassen wurde, benannte die Kommission Amazon Store als sehr große Online-Plattform. Dies bedeutet u. a., dass Amazon Store ein Werbearchiv mit detaillierten Informationen über ihre Online-Werbung öffentlich zugänglich machen muss. Amazon beantragte beim Gericht der Europäischen Union die Nichtigerklärung dieses Beschlusses. Sie stellte außerdem einen Antrag auf vorläufigen Rechtsschutz. Mit Beschluss vom 27. September 20234 ordnete der Präsident des Gerichts die Aussetzung des Beschlusses der Kommission an, soweit Amazon Store damit verpflichtet wird, das Werbearchiv öffentlich zugänglich zu machen. Die Kommission hat gegen den Beschluss des Präsidenten des Gerichts beim Gerichtshof ein Rechtsmittel eingelegt.

Mit seinem heutigen Beschluss hebt der Vizepräsident des Gerichtshofs den Teil des Beschlusses des Präsidenten des Gerichts auf, mit dem der Beschluss der Kommission in Bezug auf das Werbearchiv ausgesetzt wird. Er stellt fest, dass der Kommission unter Verstoß gegen den Grundsatz eines kontradiktorischen Verfahrens die Möglichkeit vorenthalten wurde, zu den Argumenten, die von Amazon im Verfahren vor dem Gericht vorgetragen wurden, Stellung zu nehmen. Da die Kommission vor dem Gerichtshof die Argumente vorgetragen hat, mit denen sie dem Vorbringen von Amazon vor dem Gericht entgegentreten wollte, entscheidet der Vizepräsident des Gerichtshofs den Rechtsstreit endgültig und weist den Antrag auf vorläufigen Rechtsschutz zurück.

Der Vizepräsident des Gerichtshofs ist der Ansicht, dass das Vorbringen von Amazon, die vom Unionsgesetzgeber eingeführte Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, schränke ihre Grundrechte auf Achtung des Privatlebens und auf unternehmerische Freiheit rechtswidrig ein, dem ersten Anschein nach nicht als unerheblich und außerdem völlig haltlos angesehen werden kann.

Zudem würde Amazon, wenn keine Aussetzung erfolgt, vor einem eventuell ergehenden Urteil, mit dem der Beschluss der Kommission für nichtig erklärt wird, wahrscheinlich einen schwerwiegenden und nicht wiedergutzumachenden Schaden erleiden.

Diese Feststellungen sind jedoch für sich allein genommen nicht entscheidend. Es ist nämlich zu prüfen, ob die Abwägung sämtlicher beteiligter Interessen die Versagung der Aussetzung rechtfertigen kann. Hierzu stellt der Vizepräsident des Gerichtshofs fest, dass Amazon in dem Fall, dass die Aussetzung nicht gewährt wird, weiterhin ein Interesse an der Nichtigerklärung des Beschlusses der Kommission hätte. Außerdem ist nicht dargetan, dass in diesem Fall die Existenz oder die langfristige Entwicklung von Amazon auf dem Spiel stünden. Darüber hinaus würde die Aussetzung bedeuten, das vollständige Erreichen der Ziele der Verordnung über einen Binnenmarkt für digitale Dienste möglicherweise über mehrere Jahre hinauszuschieben und damit möglicherweise ein OnlineUmfeld bestehen oder sich entwickeln zu lassen, das eine Bedrohung für die Grundrechte darstellt; der Unionsgesetzgeber war aber der Auffassung, dass die sehr großen Online-Plattformen eine wichtige Rolle in diesem Umfeld spielen. Die vom Unionsgesetzgeber vertretenen Interessen gehen im vorliegenden Fall den materiellen Interessen von Amazon vor, weshalb die Abwägung zugunsten der Zurückweisung des Aussetzungsantrags ausfällt.


Den Volltext des Beschlusses finden Sie hier:

EU-Kommission: Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet

Die EU-Kommission hat Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet.

Die Pressemitteilung der EU-Kommission:
Commission opens non-compliance investigations against Alphabet, Apple and Meta under the Digital Markets Act

Today, the Commission has opened non-compliance investigations under the Digital Markets Act (DMA) into Alphabet's rules on steering in Google Play and self-preferencing on Google Search, Apple's rules on steering in the App Store and the choice screen for Safari and Meta's “pay or consent model”.

The Commission suspects that the measures put in place by these gatekeepers fall short of effective compliance of their obligations under the DMA.

In addition, the Commission has launched investigatory steps relating to Apple's new fee structure for alternative app stores and Amazon's ranking practices on its marketplace. Finally, the Commission has ordered gatekeepers to retain certain documents to monitor the effective implementation and compliance with their obligations.

Alphabet's and Apple's steering rules

The Commission has opened proceedings to assess whether the measures implemented by Alphabet and Apple in relation to their obligations pertaining to app stores are in breach of the DMA. Article 5(4) of the DMA requires gatekeepers to allow app developers to “steer” consumers to offers outside the gatekeepers' app stores, free of charge.

The Commission is concerned that Alphabet's and Apple's measures may not be fully compliant as they impose various restrictions and limitations. These constrain, among other things, developers' ability to freely communicate and promote offers and directly conclude contracts, including by imposing various charges.

Alphabet's measures to prevent self-preferencing

The Commission has opened proceedings against Alphabet, to determine whether Alphabet's display of Google search results may lead to self-preferencing in relation to Google's vertical search services (e.g., Google Shopping; Google Flights; Google Hotels) over similar rival services.

The Commission is concerned that Alphabet's measures implemented to comply with the DMA may not ensure that third-party services featuring on Google's search results page are treated in a fair and non-discriminatory manner in comparison with Alphabet's own services, as required by Article 6(5) of the DMA.

Apple's compliance with user choice obligations

The Commission has opened proceedings against Apple regarding their measures to comply with obligations to (i) enable end users to easily uninstall any software applications on iOS, (ii) easily change default settings on iOS and (iii) prompt users with choice screens which must effectively and easily allow them to select an alternative default service, such as a browser or search engine on their iPhones.

The Commission is concerned that Apple's measures, including the design of the web browser choice screen, may be preventing users from truly exercising their choice of services within the Apple ecosystem, in contravention of Article 6(3) of the DMA.

Meta's “pay or consent” model

Finally, the Commission has opened proceedings against Meta to investigate whether the recently introduced “pay or consent” model for users in the EU complies with Article 5(2) of the DMA which requires gatekeepers to obtain consent from users when they intend to combine or cross-use their personal data across different core platform services.

The Commission is concerned that the binary choice imposed by Meta's “pay or consent” model may not provide a real alternative in case users do not consent, thereby not achieving the objective of preventing the accumulation of personal data by gatekeepers.

Other investigatory and enforcement steps

The Commission is also taking other investigatory steps to gather facts and information to clarify whether:

Amazon may be preferencing its own brand products on the Amazon Store in contravention of Article 6(5) of the DMA, and
Apple's new fee structure and other terms and conditions for alternative app stores and distribution of apps from the web (sideloading) may be defeating the purpose of its obligations under Article 6(4) of the DMA.
The Commission has also adopted five retention orders addressed to Alphabet, Amazon, Apple, Meta, and Microsoft, asking them to retain documents which might be used to assess their compliance with the DMA obligations, so as to preserve available evidence and ensure effective enforcement.

Finally, the Commission has granted Meta an extension of 6 months to comply with the interoperability obligation (Article 7 DMA) for Facebook Messenger. The decision is based on a specific provision in Article 7(3)DMA and follows a reasoned request submitted by Meta. Facebook Messenger remains subject to all other DMA obligations.

Next steps

The Commission intends to conclude the proceedings opened today within 12 months. If warranted following the investigation, the Commission will inform the concerned gatekeepers of its preliminary findings and explain the measures it is considering taking or the gatekeeper should take in order to effectively address the Commission's concerns.

In case of an infringement, the Commission can impose fines up to 10% of the company's total worldwide turnover. Such fines can go up to 20% in case of repeated infringement. Moreover, in case of systematic infringements, the Commission may also adopt additional remedies such as obliging a gatekeeper to sell a business or parts of it, or banning the gatekeeper from acquisitions of additional services related to the systemic non-compliance.

Background

The DMA aims to ensure contestable and fair markets in the digital sector. It regulates gatekeepers, which are large digital platforms that provide an important gateway between business users and consumers, whose position can grant them the power to create a bottleneck in the digital economy.

Alphabet, Amazon, Apple, ByteDance, Meta and Microsoft, the six gatekeepers designated by the Commission in September 2023, had to fully comply with all DMA obligations by 7 March 2024. The Commission has assessed the compliance reports setting out gatekeepers' compliance measures, and gathered feedback from stakeholders, including in the context of workshops.

Today's formal non-compliance proceedings against Alphabet, Apple and Meta have been opened pursuant to Article 20 DMA in conjunction with Articles 13 and 29 DMA for breach of Articles 5(2), 5(4), 6(3) and 6(5) DMA respectively.



EU-Kommission: Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern

Die EU-Kommission hat ein förmliches Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste ein

Die Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob AliExpress in Bereichen im Zusammenhang mit dem Management und der Minderung von Risiken, der Moderation von Inhalten und dem internen Beschwerdemanagementsystem, der Transparenz von Werbe- und Empfehlungssystemen, der Rückverfolgbarkeit von Händlern und dem Datenzugang für Forscher möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich der Analyse des von AliExpress im August 2023 übermittelten Risikobewertungsberichts, der in seinem Transparenzbericht veröffentlichten Informationen und ihrer Antworten auf die förmlichen Auskunftsersuchen der Kommission (vom 6. November 2023 und 18. Januar 2024), hat die Kommission beschlossen, ein förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste in Bezug auf die Bewertung und Minderung der systemischen Risiken der Verbreitung illegaler Inhalte sowie tatsächliche oder vorhersehbare negative Auswirkungen auf den Verbraucherschutz, insbesondere im Zusammenhang mit
- Die mangelnde Durchsetzung von AliExpress-Dienstleistungsbedingungen, die bestimmte Produkte verbieten, die eine
Gefahr für die Gesundheit der Verbraucher darstellen (z. B. gefälschte Arzneimittel und Lebensmittel sowie
Nahrungsergänzungsmittel) und speziell für Minderjährige (Zugang zu pornografischem Material), die die Verbraucher noch
auf der Plattform finden können;
- Das Fehlen wirksamer Maßnahmen zur Verhinderung der Verbreitung illegaler Inhalte;
- Das Fehlen wirksamer Maßnahmen, um vorsätzliche Manipulationen auf der Online-Plattform durch sogenannte „versteckte
Links“ zu verhindern;
- Das Fehlen wirksamer Maßnahmen zur Vermeidung von Risiken aufgrund von Merkmalen wie Influencern, die illegale oder
schädliche Produkte im Rahmen des „verbundenen Programms“ von AliExpress fördern.

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, allen Nutzern, einschließlich derjenigen, die nicht registriert sind, zu ermöglichen, illegale Inhalte zu melden und eine Bestätigung des Eingangs der Meldung zu erhalten;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein wirksames internes Beschwerdemanagementsystem bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, die Zuverlässigkeit und Vollständigkeit der von Wirtschaftsbeteiligten, die AliExpress verwenden, angeforderten Informationen zu sammeln und zu bewerten, auch in Bezug auf Händler im Rahmen des „AliExpress Affiliate Program“, im Einklang mit der Rückverfolgbarkeit der Bestimmungen der Händler;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, für Transparenz in Bezug auf die wichtigsten Parameter zu sorgen, die in den Empfehlungssystemen von AliExpress verwendet werden, und mindestens eine Option eines Empfehlungssystems anzubieten, das nicht auf Profiling beruht;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf AliExpress bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, Forschern gemäß Artikel 40 des Gesetzes über digitale Dienste Zugang zu öffentlich zugänglichen Daten von AliExpress zu gewähren.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 16, 20, 26, 27, 30, 34, 35, 38, 39 und 40 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen zu ergreifen, z. B. einstweilige Maßnahmen zur Beendigung oder Behebung eines Verstoßes gegen Artikel 28 Absatz 1 und Beschlüsse wegen Nichteinhaltung. Die Kommission ist ferner befugt, von AliExpress eingegangene Verpflichtungszusagen anzunehmen, um Abhilfe in dem von dem Verfahren betroffenen Sachverhalt zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen die Artikel 16, 20, 26, 27 und 30 zu überwachen und durchzusetzen.

Die Einleitung eines förmlichen Verfahrens greift weder dem Ergebnis noch anderen Verfahren vor, die die Kommission nach anderen Artikeln des Gesetzes über digitale Dienste einleiten kann. Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die andere Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergreifen.

Hintergrund
AliExpress wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 104,3 Millionen monatlich aktive Nutzer in der EU gibt. Als VLOP musste AliExpress vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von Verpflichtungen aus dem Gesetz über digitale Dienste beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EU-Kommission: Geldbuße gegen Apple über 1,8 Mrd. Euro wegen Kartellrechtsverstoß durch App-Store-Vorschriften für Musikstreaming-Anbieter

Die EU-Kommission hat eine Geldbuße gegen Apple über 1,8 Mrd. Euro wegen Kartellrechtsverstößen durch die App-Store-Vorschriften für Musikstreaming-Anbieter verhängt.

Die Pressemitteilung der EU-Kommission:
Kommission verhängt Geldbuße in Höhe von 1,8 Mrd. EUR gegen Apple wegen kartellrechtswidriger App-Store-Vorschriften für Musikstreaming-Anbieter

Die Europäische Kommission hat gegen Apple wegen Missbrauchs seiner beherrschenden Stellung auf dem Markt für den über seinen App Store laufenden Vertrieb von Musikstreaming-Apps an iPhone- und iPad-Nutzer („iOS-Nutzer“) eine Geldbuße in Höhe von über 1,8 Mrd. EUR verhängt. Insbesondere stellte die Kommission fest, dass Apple App-Entwickler Beschränkungen auferlegte, die sie daran hinderten, iOS-Nutzer über alternative und billigere Musikabonnements zu informieren, die außerhalb der App zur Verfügung stehen. Das verstößt gegen das EU-Kartellrecht.

Zuwiderhandlung

Apple ist derzeit der einzige Anbieter eines App Store, in dem Entwickler ihre Anwendungen an iOS-Nutzer im gesamten Europäischen Wirtschaftsraum (EWR) vertreiben können. Apple kontrolliert alle Aspekte der iOS-Nutzererfahrung und legt die Geschäftsbedingungen fest, die Entwickler einhalten müssen, wenn sie im App Store präsent sein und iOS-Nutzer im EWR erreichen möchten.

Die Untersuchung der Kommission hat ergeben, dass Apple es Entwicklern von Musikstreaming-Apps untersagt, iOS-Nutzer umfassend über alternative, billigere Musikabonnements zu informieren, die außerhalb der App verfügbar sind, und Hinweise dazu zu geben, wie solche Angebote abonniert werden können. Die entsprechenden Bestimmungen verbieten den App-Entwicklern u. a. Folgendes:

- Information der iOS-Nutzer in den Apps der Entwickler über die Preise von Abonnements, die außerhalb der App im Internet verfügbar sind

- Information der iOS-Nutzer in den Apps der Entwickler über die Preisunterschiede zwischen In-App-Abonnements (die über den „In-App“-Kaufmechanismus von Apple abgeschlossen werden) und anderswo abgeschlossenen Abonnements

- Einbau von Links in ihre Apps, die iOS-Nutzer zur Website des jeweiligen App-Entwicklers führen, auf der alternative Abonnements angeboten werden. App-Entwickler konnten sich auch nicht an eigene, neu geworbene Nutzer wenden (z. B. per E-Mail), um sie nach Einrichtung des Nutzerkontos über Preisalternativen zu informieren.

Die Kommission befindet in ihrem heutigen Beschluss, dass die in Rede stehenden Bestimmungen von Apple unlautere Handelsbedingungen darstellen und gegen Artikel 102 Buchstabe a des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) verstoßen. Die Bestimmungen sind weder notwendig noch angemessen, um die geschäftlichen Interessen von Apple in Bezug auf den App Store auf intelligenten mobilen Apple-Geräten zu schützen. Sie wirken sich nachteilig für die iOS-Nutzer aus, da sie fundierte und effiziente Entscheidungen darüber verhindern, wo und wie die Nutzer Musikstreaming-Abonnements für ihr Gerät erwerben wollen.

Wegen des Verhaltens von Apple, das fast zehn Jahre andauerte, könnten viele iOS-Nutzer erheblich höhere Preise für Musikstreaming-Abonnements gezahlt haben, denn Apple verlangte von den Entwicklern hohe Provisionen, die über höhere Abopreise für ein und denselben Dienst im App Store von Apple letztlich an die Verbraucher weitergegeben wurden. Die in Rede stehenden Bestimmungen von Apple haben durch Beeinträchtigung der Nutzererfahrung auch nicht-monetären Schaden verursacht: iOS-Nutzer mussten entweder eine aufwendige Suche auf sich nehmen, um zu einschlägigen Angeboten außerhalb der App zu gelangen, oder sie haben nie ein Abo abgeschlossen, da sie ohne Hinweise nicht das richtige finden konnten.



EuG: Eintragung der Bezeichnung "Halloumi" als geschützte Ursprungsbezeichnung rechtmäßig

EuG
Urteil vom 21.02.2024
T-361/21
Papouis Dairies u. a./ EU-Kommission


Das EuG hat entschieden, dass die Eintragung der Bezeichnung "Halloumi" als geschützte Ursprungsbezeichnung rechtmäßig war.

Die Pressemitteilung des EuG:
Das Gericht weist eine Klage gegen die Eintragung des Namens „Halloumi“ als geschützte Ursprungsbezeichnung ab

Im April 2021 trug die Europäische Kommission auf Antrag der zyprischen Behörden den Namen „Χαλλούμι“ (Halloumi)/„Hellim“ als geschützte Ursprungsbezeichnung (g. U.) ein. Halloumi ist ein zyprischer Käse mit charakteristischem Geruch und Geschmack. Er wird aus Schafs- oder Ziegenmilch oder einer Mischung aus beiden mit oder ohne Kuhmilch hergestellt. Er hat die Eigenschaft, bei hohen Temperaturen nicht zu schmelzen.

Die Papouis Dairies Ltd, eine zyprische Gesellschaft, sowie andere Personen beantragen beim Gericht der Europäischen Union, die Durchführungsverordnung der Kommission1 über die Eintragung des Namens „Χαλλούμι“ (Halloumi)/„Hellim“ als g. U. für nichtig zu erklären.

Mit seinem Urteil weist das Gericht diese Klage in vollem Umfang ab.

Es stellt fest, dass die Kommission bei der Prüfung, ob die Eintragung als g. U. im Einklang mit dem Unionsrecht steht, nicht untersuchen muss, ob das im Antrag auf Eintragung beschriebene Verfahren zur Gewinnung des Erzeugnisses einem bereits bestehenden nationalen Erzeugungsstandard entspricht. In jedem Fall steht der Antrag auf Eintragung für Halloumi-Käse nicht im Widerspruch zu dem bereits bestehenden nationalen Erzeugungsstandard, um den es hier geht. Das Gericht stellt fest, dass dieser Standard es nicht ausschließt, dass der Anteil der Ziegen- oder Schafsmilch oder ihrer Mischung in diesem Käse höher ist als der Anteil der Kuhmilch.

Anschließend weist das Gericht das Vorbringen zurück, die Kommission habe offensichtliche Fehler bei der Beschreibung des Zusammenhangs zwischen der Qualität oder den Eigenschaften des betreffenden Erzeugnisses und seinen geografischen Ursprungsverhältnissen nicht berücksichtigt. Außerdem verwirft das Gericht das Argument, die Kommission habe keine geeignete Analyse des Marktes für die Erzeugung von Halloumi und der Situation der Unternehmen, die dieses Produkt vertreiben, vorgenommen.

Schließlich stellt das Gericht fest, dass die Nichtigerklärung eines von den Behörden des betreffenden Mitgliedstaats im Rahmen der nationalen Phase des Eintragungsverfahrens erlassenen Rechtsakts durch ein nationales Gericht nach der Eintragung des Namens zwar die Kommission verpflichtet, die Konsequenzen zu bestimmen, die aus einer derartigen gerichtlichen Nichtigerklärung zu ziehen sind, diese jedoch nicht von Rechts wegen zur Nichtigkeit des Eintragungsaktes der Kommission führt.


Den Volltext der Entscheidung finden Sie hier:

EU-Kommission: Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen der Bereiche Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung

Die EU-Kommission hat ein förmliches Verfahre gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen möglicher Mängel in den Bereichen Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok in Bereichen im Zusammenhang mit dem Jugendschutz, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich einer Analyse des von TikTok im September 2023 übermittelten Risikobewertungsberichts sowie der Antworten von TikTok auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten, zum Schutz Minderjähriger und zum Datenzugang), hat die Kommission beschlossen,ein förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

Die Einhaltung der Verpflichtungen im Rahmen des Gesetzes über digitale Dienste im Zusammenhang mit der Bewertung und Minderung systemischer Risiken in Bezug auf tatsächliche oder vorhersehbare negative Auswirkungen, die sich aus der Gestaltung des TikTok-Systems, einschließlich algorithmischer Systeme, ergeben und die Verhaltensabhängigkeit stimulieren und/oder sogenannte „Kabbit-Locheffekte“ hervorrufen können. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden der Person, die Achtung der Rechte des Kindes sowie dessen Auswirkungen auf Radikalisierungsprozesse entgegenzuwirken. Darüber hinaus sind die diesbezüglich bestehenden Risikominderungsmaßnahmen, insbesondere die von TikTok verwendeten Instrumente zur Altersüberprüfung, um den Zugang Minderjähriger zu unangemessenen Inhalten zu verhindern, möglicherweise nicht angemessen, verhältnismäßig und wirksam;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere in Bezug auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Gestaltung und Funktionsweise ihrer Empfehlungssysteme;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf TikTok bereitzustellen;
Die von TikTok ergriffenen Maßnahmen zur Erhöhung der Transparenz seiner Plattform. Die Untersuchung betrifft mutmaßliche Mängel beim Zugang von Forschern zu öffentlich zugänglichen Daten von TikTok gemäß Artikel 40 des Gesetzes über digitale Dienste.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1, Artikel 28 Absatz 1, Artikel 39 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die einen Verstoß nach dem Gesetz über digitale Dienste darstellen könnten, beispielsweise im Zusammenhang mit den Verpflichtungen eines Anbieters in Bezug auf die Verbreitung illegaler Inhalte wie terroristische Inhalte oder sexuellen Kindesmissbrauch im Internet oder die Meldung eines Verdachts auf Straftaten.

Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die von anderen Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergriffen werden.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
TikTok wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 135,9 Millionen monatlich aktive Nutzer in der EU hat. Als VLOP musste TikTok vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von im Gesetz über digitale Dienste festgelegten Verpflichtungen beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


Präsiden des EuG lehnt Eilantrag von TikTok / Bytedance gegen Einordnung als Gatekeeper im Sinn des Digital Markets Act (DMA) durch EU-Kommission ab

Präsiden des EuG
Beschluss vom 09.20.2024
T-1077/23
Bytedance / EU-Kommission

Der Präsident des EuG hat den Eilantrag von TikTok / Bytedance gegen die Einordnung als Gatekeeper im Sinn des Digital Markets Act (DMA) durch die EU-Kommission abgelehnt.

Die Pressemitteilung des Gerichts:
Verordnung über digitale Märkte: Der Antrag von ByteDance (TikTok) auf Aussetzung des Beschlusses der Kommission, mit dem ByteDance als Torwächter benannt wird, wird zurückgewiesen

ByteDance hat die Dringlichkeit einer vorläufigen Entscheidung zur Verhinderung eines schweren und nicht wiedergutzumachenden Schadens nicht dargetan.

Die ByteDance Ltd ist eine 2012 in China gegründete nicht operative Holdinggesellschaft, die über lokale Tochtergesellschaften die Unterhaltungsplattform TikTok bereitstellt.

Mit Beschluss vom 5. September 2023 benannte die Kommission ByteDance als Torwächter gemäß der Verordnung über digitale Märkte.

Im November 2023 erhob ByteDance Klage auf Nichtigerklärung dieses Beschlusses. Mit gesondertem Schriftsatz hat sie einen Antrag auf vorläufigen Rechtsschutz gestellt, mit dem sie die Aussetzung des Kommissionsbeschlusses begehrt. Mit seinem heutigen Beschluss weist der Präsident des Gerichts den Antrag von ByteDance auf vorläufigen Rechtsschutz zurück.

ByteDance hat danach nicht dargetan, dass es erforderlich wäre, den streitigen Beschluss bis zum Abschluss des Verfahrens zur Hauptsache auszusetzen, um zu verhindern, dass sie einen schweren und nicht wiedergutzumachenden Schaden erleidet.

ByteDance machte u. a. geltend, dass bei sofortiger Durchführung des streitigen Beschlusses die Gefahr bestehe, dass sonst nicht öffentliche, hochstrategische Informationen über die Praktiken von TikTok bei der Erstellung von Nutzerprofilen verbreitet würden. Diese Informationen würden es, so ByteDance, den Wettbewerbern von TikTok und sonstigen Dritten ermöglichen, über die TikTok betreffenden Geschäftsstrategien in einer Weise informiert zu sein, die ihren Tätigkeiten erheblich abträglich wäre. Ausweislich des heutigen Beschlusses hat ByteDance jedoch weder das Bestehen einer tatsächlichen Gefahr der Verbreitung vertraulicher Informationen noch einen etwaigen schweren und nicht wiedergutzumachenden Schaden infolge einer solchen Gefahr dargetan.

Den Volltext des Beschlusses finden Sie hier:

EU-Kommission: Pornhub, Stripchat und XVideos sind sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste)

Die EU-Kommission hat entschieden, dass Pornhub, Stripchat und XVideos sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) sind.

Die Pressemitteilung des EU-Kommission:
Today, the Commission adopted a second set of designation decisions under the Digital Services Act, designating 3 Very Large Online Platforms (VLOPs). These are:

Pornhub
Stripchat
XVideos
The designation is the result of Commission investigations concluding that the three services fulfil the threshold of 45 million average monthly users in the EU.

Today's designations follow a first set of designation decisions of 19 Very Large Online Platforms and Search Engines on 25 April 2023, of which the Commission published the non-confidential versions today.

General date of applicability of the DSA
With the exception of small and microenterprises, all online platforms and search engines will need to comply with the general DSA obligations by 17 February 2024. Among other provisions, they will need to:

Provide user-friendly mechanisms to allow users or entities to notify illegal content;
Prioritise the treatment of notices submitted by so-called “trusted flaggers”;
Provide statements of reasons to users when their content is restricted or removed;
Provide an internal complaint-handling system for users to appeal content moderation decisions;
Promptly inform law enforcement authorities if they become aware of any information giving rise to a suspicion that a criminal offence involving a threat to the life or safety of a person has taken place, is taking place or is likely to take place, including in the case of child sexual abuse;
Redesign their systems to ensure a high level of privacy, security, and safety of minors;
Ensure that their interfaces are not designed in a way that deceives or manipulates the users;
Clearly label advertisement on their interfaces;
Stop presenting targeted advertisement based on profiling of sensitive data (such as ethnic origin, political opinions or sexual orientation), or targeted at minors;
Have clear terms and conditions and act in a diligent, objective and proportionate manner when applying them;
Publish once a year transparency reports on their content moderation processes.
More stringent rules for designated VLOPs
In addition to the general provisions in the DSA, within four months of their designation as VLOPs, Pornhub, XVideos and Stripchat will also have to adopt specific measures to empower and protect users online, including minors, and duly assess and mitigate any systemic risks stemming from their services. These additional, specific obligations include:

More diligent content moderation:

VLOPs need to analyse their specific systemic risks with regard to the dissemination of illegal content and of content threatening fundamental rights. Risk assessments reports will have to be provided to the Commission 4 months after the notification of the formal designation and made public at the latest a year later;
VLOPs must put in place mitigation measures to address risks linked to the dissemination of illegal content online, such as child sexual abuse material, and content affecting fundamental rights, such as the right to human dignity and private life in case of non-consensual sharing of intimate material online or deepfake pornography. These measures can include adapting their terms and conditions, interfaces, moderation processes, or algorithms, among others;
VLOPs must reinforce their internal processes, resources, testing, documentation, and supervision of any of their activities linked to the detection of systemic risks.
Strong protection of minors:

VLOPs must design their services, including their interfaces, recommender systems, and terms and conditions, to address and prevent risks to the well-being of children. Mitigating measures to protect the rights of the child, and prevent minors from accessing pornographic content online, including with age verification tools;
Risk assessment reports will have in particular to detail any negative effect on the protection of the mental and physical health of minors.
More transparency and accountability:

VLOPs need to ensure that their risk assessments and their compliance with all the DSA obligations are externally and independently audited;
VLOPs need to publish repositories of all the ads served on their interface;
VLOPs will have to give access to publicly available data to researchers, including to vetted researchers designated by Digital Services Coordinators;
VLOPs need to comply with additional transparency requirements, including the publication of transparency reports on content moderation decisions and risk management every six months, in addition to reports on their systemic risks and audit results once a year;
VLOPs need to appoint a compliance function and be subject to an external independent audit every year.
Next Steps
Following their designation as VLOPs, the Commission will be responsible for supervising Pornhub, Stripchat and XVideos, in cooperation with the Digital Services Coordinators of the Member States of establishment.

The Commission services will carefully monitor the compliance with the DSA obligations by these platforms, especially concerning the measures to protect minors from harmful content and to address the dissemination of illegal content. The Commission services are ready to closely engage with the newly designated platforms to ensure these are properly addressed.

Background
On 25 April 2023, the Commission designated the first 19 Very Large Online Platforms and Search Engines. Starting from the end of August, these VLOPs and VLOSEs must comply with the additional obligations under the DSA. By 17 February 2024, all platforms, with the exception of small and microenterprises, will have to comply with the general obligations introduced by the DSA.

The supervision and enforcement of the DSA will be shared between the Commission and Digital Services Coordinators, which will be designated by Member States by 17 February 2024.



EU-Kommission: Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet

Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.

Die Pressemitteilung des EU-Kommission:
The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.

On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.

The proceedings will focus on the following areas:

The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.

The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.

The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.

A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.

If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.

These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.

Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.

The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.

The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.

The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).

Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.

As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:

Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.

Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.

Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data
.



EuG-Präsident: Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt

EuG-Präsident
Anordnung vom 27.09.2023
T‑367/23 R
Amazon Services Europe Sàrl ./. EU-Kommission


Der EuG-Präsident hat angeordnet, dass die Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt wird. Über die Rechtsmäßigkeit der Einordnung muss der EuG noch entscheiden.

Tenor der Entscheidung:
1. Operation of the decision of the European Commission of 25 April 2023, with reference C(2023) 2746 final, designating Amazon Store as a very large online platform in accordance with Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act), is suspended in so far as, by virtue of that decision, Amazon Store will be required to make an advertisement repository publicly available, in accordance with Article 39 of that regulation, without prejudice to the requirement for the applicant to compile the advertisement repository.

2. The application for interim measures is dismissed as to the remainder.

3. The costs are reserved.

Den Volltext der Entscheidung finden Sie hier:


EU-Kommission: Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.

Die Pressemitteilung der EU-Kommission vom 25.04.2023:

Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:

Sehr große Online-Plattformen:

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:

Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.

Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:

Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.

Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:

Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.

Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:

Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.

Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.

Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.

Ein höheres Maß an Transparenz und Rechenschaftspflicht:

Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.

Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.

Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.

Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.

Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.



EuG: Bußgeld der EU-Kommission gegen den Steam-Betreiber Valve wegen unzulässigen Geoblockings rechtmäßig

EuG
Urteil vom 27.09.2023
T-172/21
Valve Corporation / Kommission


Das EuG hat entschieden, dass das Bußgeld der EU-Kommission gegen den Steam-Betreiber Valve wegen unzulässigen Geoblockings rechtmäßig war.

Die Pressemitteilung des EuG:
Online-Videospiele: Das Gericht bestätigt einen Verstoß gegen das Wettbewerbsrecht der Union durch das Geoblocking von Produktschlüsseln für die Plattform Steam

Indem sie dieses Geoblocking bilateral vereinbart haben, haben die Betreiberin der Plattform Steam, Valve, und fünf PC-Videospielverleger den grenzüberschreitenden Absatz bestimmter mit dieser Plattform kompatibler PC-Videospiele unzulässig beschränkt

Nachdem die Kommission Informationen erhalten hatte, dass bestimmte PC-Videospiele auf der Plattform Steam aufgrund des Nutzerstandorts einem Geoblocking unterlagen, leitete sie eine Untersuchung ein. Mit Beschlüssen vom 20. Januar 2021 stellte sie einen Verstoß gegen das Wettbewerbsrecht der Union durch die Betreiberin der Plattform, Valve, und fünf Spielverleger, nämlich Bandai, Capcom, Focus Home, Koch Media und ZeniMax, fest.

Die Kommission warf Valve und den fünf Verlegern vor, an einem Bündel wettbewerbswidriger Vereinbarungen oder abgestimmter Verhaltensweisen teilgenommen zu haben. Diese hätten darauf abgezielt, den grenzüberschreitenden Absatz bestimmter mit der Plattform Steam kompatibler PC-Videospiele durch die Einrichtung gebietsbezogener Kontrollfunktionen in verschiedenen Zeiträumen zwischen 2010 und 2015 zu beschränken, und zwar insbesondere in den Ländern des Baltikums sowie in bestimmten mittel- und osteuropäischen Ländern.

Valve hat beim Gericht der Europäischen Union Klage auf Nichtigerklärung des sie betreffenden Beschlusses erhoben.

Mit seinem heutigen Urteil weist das Gericht die Klage ab.

Es stellt fest, dass die Kommission rechtlich hinreichend nachgewiesen hat, dass es zwischen Valve und jedem der fünf Verleger eine Vereinbarung oder abgestimmte Verhaltensweise gab, die bezweckte, Paralleleinfuhren durch Geoblocking der Schlüssel zu beschränken, mit denen die fraglichen Videospiele auf der Plattform Steam aktiviert und gegebenenfalls genutzt werden konnten, Mit diesem Geoblocking sollte verhindert werden, dass die Videospiele, die in einigen Ländern zu niedrigen Preisen vertrieben werden, von Vertriebshändlern oder Nutzern gekauft werden, die ihren Standort in anderen Ländern haben, in denen die Preise deutlich höher sind.

Das in Rede stehende Geoblocking verfolgte somit nicht das Ziel, die Urheberrechte der Verleger der PC-Videospiele zu schützen, sondern diente dazu, Paralleleinfuhren dieser Videospiele zu unterbinden und das hohe Niveau der von den Verlegern erhobenen Lizenzgebühren und darüber hinaus der von Valve erzielten Margen zu schützen.

Auf verschiedene Argumente von Valve hin äußert sich das Gericht auch zum Verhältnis zwischen dem Wettbewerbsrecht der Union und dem Urheberrecht. Es erinnert insbesondere daran, dass das Urheberrecht den Inhabern der betreffenden Rechte nur die Möglichkeit sichern soll, das Inverkehrbringen oder die Bereitstellung der Schutzgegenstände dadurch kommerziell zu verwerten, dass gegen Zahlung einer Vergütung Lizenzen erteilt werden. Es garantiert ihnen jedoch nicht die Möglichkeit, die höchstmögliche Vergütung zu verlangen oder ein Verhalten an den Tag zu legen, das geeignet ist, zu künstlichen Preisunterschieden zwischen abgeschotteten nationalen Märkten zu führen. Eine solche Abschottung und der
daraus resultierende künstliche Preisunterschied sind mit der Verwirklichung des Binnenmarkts nicht vereinbar.

Auch die Berufung von Valve auf die von ihr behauptete wettbewerbsfördernde Wirkung des fraglichen Geoblocking
ändert nichts an der Gesamtbeurteilung, dass das in Rede stehende, als bezweckte Wettbewerbsbeschränkung eingestufte kollusive Verhalten ein für den Wettbewerb hinreichend schädliches Ausmaß erreichte.

Den Volltext der Entscheidung finden Sie hier:

EU-Kommission: Alphabet, Amazon, Apple, ByteDance, Meta und Microsoft sind Gatekeeper im Sinn des Digital Markets Act (DMA)

Die EU-Kommission hat festgestellt, dass Alphabet, Amazon, Apple, ByteDance, Meta und Microsoft Gatekeeper im Sinn des Digital Markets Act (DMA) sind.

Die Pressemitteilung der EU-Kommission:
Die Europäische Kommission hat heute im Rahmen des Gesetzes über digitale Märkte erstmals sechs Torwächter (Gatekeeper) benannt: Alphabet, Amazon, Apple, ByteDance, Meta und Microsoft. Insgesamt wurden 22 zentrale Plattformdienste, die von Torwächtern bereitgestellt werden, benannt. Die sechs Torwächter haben nun sechs Monate Zeit, um die vollständige Einhaltung der Verpflichtungen gemäß dem Gesetz über digitale Märkte für jeden ihrer benannten zentralen Plattformdienste sicherzustellen.

Im Rahmen des Gesetzes über digitale Märkte kann die Europäische Kommission digitale Plattformen als „Torwächter“ benennen, wenn diese für Unternehmen über zentrale Plattformdienste ein wichtiges Zugangstor zu Verbraucherinnen und Verbrauchern darstellen. Die heutigen Benennungsbeschlüsse sind das Ergebnis einer Überprüfung durch die Kommission über 45 Tage, nachdem Alphabet, Amazon, Apple, ByteDance, Meta, Microsoft und Samsung ihren potenziellen Torwächter-Status mitgeteilt hatten. Insbesondere hat die Kommission den Torwächter-Status für die folgenden zentralen Plattformdienste festgestellt:

Parallel dazu hat die Kommission vier Marktuntersuchungen eingeleitet, um die eingereichten Mitteilungen von Microsoft und Apple weiter zu prüfen, denen zufolge einige ihrer zentralen Plattformdienste nicht als Zugangstore anzusehen sind, obwohl sie die Schwellenwerte erreichen:

Microsoft: Bing, Edge und Microsoft Advertising
Apple: iMessage
Nach dem Gesetz über digitale Märkte soll im Rahmen dieser Untersuchungen festgestellt werden, ob durch eine hinreichend stichhaltige Widerlegung durch die Unternehmen nachgewiesen wird, dass die betreffenden Dienste nicht benannt werden sollten. Die Untersuchung sollte innerhalb von fünf Monaten abgeschlossen werden.

Darüber hinaus hat die Kommission eine Marktuntersuchung eingeleitet, um weiter zu prüfen, ob Apples iPadOS zu den Torwächtern gezählt werden sollte, obwohl es die Schwellenwerte nicht erreicht. Diese Untersuchung im Rahmen des Gesetzes über digitale Märkte sollte innerhalb von höchstens 12 Monaten abgeschlossen werden.

Darüber hinaus kam die Kommission zu dem Schluss, dass Gmail, Outlook.com und Samsung Internet Browser zwar die Schwellenwerte des Gesetzes über digitale Märkte für die Einstufung ihrer Betreiber als Torwächter erreichen, Alphabet, Microsoft und Samsung jedoch hinreichend begründete Argumente dafür vorgelegt haben, dass diese Dienste nicht als Zugangstor für die jeweiligen zentralen Plattformdienste anzusehen sind. Daher beschloss die Kommission, Gmail, Outlook.com und Samsung Internet Browser nicht als zentrale Plattformdienste zu benennen. Dementsprechend wurde Samsung nicht als Torwächter in Bezug auf einen zentralen Plattformdienst eingestuft.

Nächste Schritte für benannte Torwächter
Nach ihrer Benennung haben die Torwächter nun sechs Monate Zeit, um sich an die vollständige Liste der Gebote und Verbote zu halten, die im Gesetz für digitale Märkte vorgesehen sind, sodass Endnutzern und gewerblichen Nutzern der Dienste des Torwächters eine größere Auswahl geboten und mehr Freiheit eingeräumt wird. Einige der Verpflichtungen gelten jedoch direkt ab dem Zeitpunkt der Benennung, z. B. die Verpflichtung, die Kommission über jeden geplanten Zusammenschluss zu unterrichten. Es liegt bei den benannten Unternehmen, die wirksame Einhaltung der Vorschriften zu gewährleisten und nachzuweisen. Zu diesem Zweck müssen sie innerhalb von sechs Monaten einen ausführlichen Compliance-Bericht vorlegen, in dem sie darlegen, wie sie die einzelnen Verpflichtungen des Gesetzes über digitale Märkte erfüllen.

Die Kommission wird die wirksame Umsetzung und Einhaltung dieser Verpflichtungen überwachen. Kommt ein Torwächter den im Gesetz über digitale Märkte festgelegten Verpflichtungen nicht nach, kann die Kommission Geldbußen bis zu einem Höchstbetrag von 10 % des weltweit erzielten Gesamtumsatzes des Unternehmens verhängen, der bei wiederholter Zuwiderhandlung auf bis zu 20 % hochgesetzt werden kann. Im Falle systematischer Zuwiderhandlungen ist die Kommission auch befugt, zusätzliche Abhilfemaßnahmen aufzuerlegen. Beispielsweise kann sie einen Torwächter dazu verpflichten, ein Unternehmen oder Teile davon zu verkaufen, oder sie kann dem Torwächter verbieten, zusätzliche Dienste zu erwerben, die mit der systematischen Nichteinhaltung in Verbindung stehen.

In Zukunft könnten weitere Unternehmen der Kommission auf der Grundlage ihrer Selbstbeurteilung Mitteilungen im Rahmen des Gesetzes über digitale Märkte in Bezug auf die einschlägigen Schwellenwerte übermitteln. In diesem Zusammenhang führt die Kommission konstruktive Gespräche mit allen relevanten Unternehmen.



Hintergrund
Das Gesetz über digitale Märkte soll verhindern, dass Torwächter den Unternehmen und Endnutzern unfaire Bedingungen aufzwingen, und so die Offenheit wichtiger digitaler Märkte gewährleisten.

Zusammen mit dem Gesetz über digitale Märkte schlug die Kommission im Dezember 2020 das Gesetz über digitale Dienste vor, um die negativen Folgen bestimmter Verhaltensweisen von Online-Plattformen, die als digitale Torwächter fungieren, für den EU-Binnenmarkt anzugehen.

Das Gesetz über digitale Märkte, das seit November 2022 in Kraft ist und seit Mai 2023 angewendet wird, zielt darauf ab, bestreitbare und faire Märkte im digitalen Sektor zu gewährleisten. Es reguliert die sogenannten Torwächter: große Online-Plattformen, die gewerblichen Nutzern als wichtiges Zugangstor zu Verbrauchern dienen und die aufgrund dieser Stellung die Macht haben, den Marktzugang in der digitalen Wirtschaft zu kanalisieren.

Unternehmen, die mindestens einen der zehn im Gesetz über digitale Märkte aufgeführten zentralen Plattformdienste betreiben, werden als Torwächter angesehen, wenn sie die nachstehenden Kriterien erfüllen. Zu diesen zentralen Plattformdiensten gehören Online-Vermittlungsdienste wie Dienste zum Herunterladen von Computer- oder Handy-Apps, Online-Suchmaschinen, soziale Netzwerke, bestimmte Kommunikationsdienste, Video-Sharing-Plattform-Dienste, virtuelle Assistenten, Webbrowser, Cloud-Computing-Dienste, Betriebssysteme, Online-Marktplätze und Online-Werbedienste. Ein Unternehmen kann dabei auch für mehrere zentrale Plattformdienste als Torwächter benannt werden.

Es gibt drei quantitative Hauptkriterien, die die Annahme begründen, dass ein Unternehmen ein Torwächter im Sinne des Gesetzes über digitale Märkte ist: i) Das Unternehmen erzielt einen bestimmten Jahresumsatz im Europäischen Wirtschaftsraum und erbringt in mindestens drei EU-Mitgliedstaaten einen zentralen Plattformdienst, ii) das Unternehmen betreibt einen zentralen Plattformdienst mit monatlich mehr als 45 Millionen aktiven Endnutzern, die in der EU niedergelassen sind oder sich dort aufhalten, und mit jährlich mehr als 10 000 aktiven gewerblichen Nutzern mit Niederlassung in der EU und iii) das Unternehmen hat das zweite Kriterium in den drei vorhergehenden Geschäftsjahren erfüllt.

Im Gesetz über digitale Märkte ist eine Reihe spezifischer Verpflichtungen festgelegt, die Torwächter einhalten müssen, und bestimmte Verhaltensweisen werden ihnen untersagt mithilfe einer Liste von Geboten und Verboten.

Mit dem Gesetz über digitale Märkte wird der Kommission auch die Befugnis übertragen, Marktuntersuchungen durchzuführen, um i) Unternehmen aus qualitativen Gründen als Torwächter zu benennen, ii) die Verpflichtungen für Torwächter erforderlichenfalls zu aktualisieren, iii) Abhilfemaßnahmen zu konzipieren, mit denen gegen systematische Zuwiderhandlungen gegen die Vorschriften des Gesetzes über digitale Märkte vorgegangen wird.


Weitere Informationen finden Sie hier:

OLG Schleswig-Holstein: Nach Abgabe einer Unterlassungserklärung wegen eines nicht klickbaren Links auf OS-Plattform genügt Kontrolle der Funktionsfähigkeit des Links einmal pro Monat

OLG Schleswig-Holstein
Urteil vom 09.03.2023
6 U 36/22


Das OLG Schleswig-Holstein hat entschieden, dass es genügt, wenn der Unterlassungsschuldner nach Abgabe einer Unterlassungserklärung wegen eines nicht klickbaren Links auf die OS-Plattform die Funktionsfähigkeit des Links einmal pro Monat kontrolliert.

Aus den Entscheidungsgründen:
cc) Aus der Aussage der Zeugin K1 hat der Senat die Überzeugung gewonnen, dass die Beklagte alles Erforderliche unternommen hat, um ihrer Verpflichtung aus der Unterlassungsvereinbarung nachzukommen.

aaa) Die Beklagte ist zunächst nach der Abmahnung im erforderlichen Umfang tätig geworden. Wie die Zeugin bekundet hat, hat sie für die Beklagte am 19.08.2021 einen klickbaren Link auf der über E-Bay aufrufbaren Website der Beklagten eingerichtet und auf seine Funktionsfähigkeit überprüft. Sie habe, so hat sie ausgesagt, diese Prüfung danach noch einmal von einem Mobilgerät aus über ihr privates E-Bay-Konto vorgenommen.

Der Senat glaubt der Zeugin. Die Zeugin hat nachvollziehbar erklärt, weshalb sie nach über 1 1/2 Jahren noch mit Sicherheit bekunden konnte, dass und wann genau sie entsprechend tätig geworden ist. Sie hat erläutert, dass sie dergleichen gewohnheitsmäßig notiere. Nachvollziehbar war auch ihre Erklärung, dass die Beklagte zur Vermeidung von Vertragsstrafenzahlungen die Unterlassungserklärung erst abgegeben habe, nachdem die Beanstandungen abgearbeitet worden seien.

Die Beklagte hat es nicht bei der Einrichtung des Links bewenden lassen, sondern seine Funktionstüchtigkeit auch später noch einmal von der Zeugin überprüfen lassen. Auch dies hat die Zeugin bekundet. Ihrer Aussage zufolge werden die Angaben auf der Website etwa alle zwei bis sechs Wochen überprüft. Sie könne definitiv sagen, dass sie auch die Funktionsfähigkeit des Links in der Zeit zwischen 19.08.2021 und dem 23.09.2021 noch einmal überprüft habe. Wann dies gewesen sei, wisse sie nicht mehr. Sie sei sicher, dass sie dies auch hier jedenfalls vor Antritt ihres Urlaubs am 22.09.2021 getan habe.

Der Senat glaubt der Zeugin auch insoweit. Es spricht für ihre Glaubwürdigkeit, dass sie eingeräumt hat, das Datum der Überprüfung nicht mehr zu erinnern. Zugleich ist ihre Begründung dafür, weshalb sie gleichwohl mit Sicherheit eine Überprüfung bestätigen könne, nachvollziehbar und glaubhaft. Sie konnte hierfür nicht nur allgemein auf die routinemäßigen Kontrollabstände verwiesen. Sie konnte vielmehr eine Kontrolle vor dem 23.09.2021 auch damit plausibel machen, dass sie vor ihrem Urlaub noch habe sicherstellen wollen, dass währenddessen alles reibungslos funktioniere und sie nicht zwischendurch tätig werden müsse oder die Shops offline geschaltet werden müssten. Dass die Zeugin berechtigt diese Sorge haben konnte, zeigt der weitere Verlauf. Nach der neuerlichen Beanstandung erhielt sie tatsächlich im Urlaub einen Anruf des Geschäftsführers der Beklagten. Auch wurde die Website offline genommen.

bbb) Mehr als das Einrichten eines klickbaren Links, dessen anschließende Überprüfung und eine weitere Überprüfung im Rahmen routinemäßiger Kontrollen konnte von der Beklagten nicht verlangt werden. Auch die Kontrolldichte war ausreichend. Da die Zeugin nur von einer einmaligen Kontrolle im Zeitraum zwischen dem 19.08. und dem 23.09.2021 berichtet hat, ist allerdings nur ein einmonatiger Kontrollrhythmus erwiesen. Dies war hinsichtlich der betreffenden Angabe aber auch ausreichend.

Der Senat legt dieser Bewertung im Ausgangspunkt zugrunde, dass die Beklagte ernsthaft dafür Sorge tragen musste, einen klickbaren Link einzurichten und dessen Funktionstüchtigkeit zu überwachen. Dies folgt schlicht daraus, dass sie sich vertraglich dazu verpflichtet hatte, auf ihrer Website einen klickbaren Link zur Verfügung zu stellen. In welchem Umfang die Beklagte Maßnahmen zur Umsetzung und Kontrolle der Verpflichtung tätig zu treffen hatte, muss sich maßgeblich danach bemessen, welche Bedeutung die Verpflichtung für den lauteren Geschäftsverkehr, dessen Durchsetzung die Unterlassungsvereinbarung dient, und für den Schutz der Verbraucher hat, ferner welche Gefahr von einer pflichtwidrigen Unterlassung ausginge und nicht zuletzt, wie hoch die Gefahr eines nachträglichen Funktionsverlusts des Links einzuschätzen war.

Im Hinblick auf die Bedeutung der Linksetzung ist einerseits zu berücksichtigen, dass das Fehlen des klickbaren Links im Rahmen einer wettbewerblichen Unterlassungsklage als spürbarer Wettbewerbsverstoß i. S. d. § 3a UWG hätte gelten müssen, weil die Verpflichtung unionsrechtlich geregelt ist. Andererseits teilt die Beklagte anlässlich der Information zur Online-Streitbeilegung ausdrücklich mit, dass sie zur Teilnahme an einem Streitbeilegungsverfahren nicht verpflichtet und nicht bereit sei (Anl. K 2 Bl. 3). Diese Mitteilung ist zulässig und wurde von dem Kläger dementsprechend auch nicht angegriffen. Die Bereitstellung des Link ist zwar verpflichtend (Art. 14 Abs. 1 VO (EU) Nr. 524/2013), die Teilnahme an der Online-Streitbeilegung aber nicht (vgl. Erwägungsgrund 26 ebd.). Angesichts der unmissverständlichen Positionierung der Beklagten erscheint es schon fraglich, dass Verbraucher in nennenswerter Zahl den Link überhaupt anklicken. Es käme jedenfalls auch dann aller Voraussicht nach nicht zu dem gewünschten Ziel der außergerichtlichen Streitbelegung. Insofern sind im vorliegenden Fall die Bedeutung des funktionstüchtigen Links nicht zu hoch. Entsprechend gering ist der Nachteil zu gewichten, der dem Verbraucher durch die Funktionsuntüchtigkeit des Links entsteht.

Entscheidend fällt vor Allem aber ins Gewicht, dass die Beklagte nicht mit Änderungen an den von ihr gemachten Angaben rechnen musste. Auch der Kläger trägt keine Anhaltspunkte dafür vor, weshalb sie mit einem nachträglichen Wegfall der Funktionalität hätte rechnen müssen. Die Zeugin K1 hat anschaulich beschrieben, dass sie die bei Einrichtung eines Online-Shops auf E-Bay notwendigen Händlerangaben gemacht habe, nachdem sie sich auf der Plattform für die Beklagte angemeldet habe. Es ist nicht erkennbar, wer außer der Beklagten Zugriff auf diese Angaben nehmen und sie verändern könnte. Dies unterscheidet den Fall grundlegend von demjenigen, den das Landgericht Berlin in dem von dem Kläger in Bezug genommenen Urteil zu entscheiden hatte (Schriftsatz vom 12.01.2022 S. 2 f mit Anl. K 11). Das Landgericht Berlin vertrat die Auffassung, dass bei E-Bay gemachte Angaben mehrmals täglich überprüft werden müssten. Streitgegenständlich dort war aber die Überprüfung der eingestellten Angebote im Hinblick auf inhaltliche Änderungen an Angaben, die von Dritten vorgenommen werden konnten. Konkret ging es um die Gestaltung von Grundpreisangaben. Insoweit hatte die dortige Beklagte eine Überprüfungspflicht nicht einmal bestritten und sich auf tägliche Kontrollen berufen. Hier aber steht nicht die inhaltliche Gestaltung der Angebote in Rede, sondern die Funktionstüchtigkeit eines nach Anmeldung namens der Beklagten gesetzten Links. Auch bei einer solchen Angabe besteht zwar eine Kontrollpflicht. Es kann nie ausgeschlossen werden, dass der Link durch nicht vorhersehbare nicht vorhersehbare äußere Einflüsse seine Funktionstüchtigkeit verliert. Da aber keine konkrete Gefährdungssituation bestand und zudem die Bedeutung der Angabe aus den dargestellten Gründen eher gering zu veranschlagen ist, erscheint eine routinemäßige monatliche Kontrolle als noch ausreichend.


Den Volltext der Entscheidung finden Sie hier: