Skip to content

EU-Kommission: TEMU ist eine sehr große Online-Plattform im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat entschieden, dass TEMU eine sehr große Online-Plattform im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste ist.

Die Pressemitteilung der EU-Kommission:
Kommission benennt Temu als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste

Die Kommission hat Temu heute offiziell als sehr große Online-Plattform (VLOP) im Rahmen des Gesetzes über digitale Dienste (DSA) benannt.

Temu ist ein Online-Marktplatz mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Nutzernummer, die Temu der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als VLOP.

Nach der heutigen Benennung als VLOP muss Temu innerhalb von vier Monaten nach seiner Mitteilung (d. h. bis Ende September 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten, wie etwa die Verpflichtung, alle systemischen Risiken, die sich aus seinen Dienstleistungen ergeben, einschließlich der Listung und des Verkaufs von gefälschten Waren, unsicheren oder illegalen Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen, ordnungsgemäß zu bewerten und zu mindern.

Zu diesen zusätzlichen Verpflichtungen gehören insbesondere:

Sorgfältigere Überwachung illegaler Produkte

-Temu muss die spezifischen systemischen Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte und Produkte sowie aus der Konzeption oder dem Funktionieren seines Dienstes und der damit verbundenen Systeme sorgfältig analysieren. Die Risikobewertungsberichte sind der Kommission vier Monate nach der Mitteilung der förmlichen Benennung und danach ein Jahr vorzulegen.

- Temu muss Risikominderungsmaßnahmen ergreifen, um Risiken zu begegnen, z. B. durch die Aufnahme und den Verkauf von nachgeahmten Waren, unsicheren Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen. Diese Maßnahmen können die Anpassung der Nutzungsbedingungen, die Verbesserung der Gestaltung der Benutzerschnittstellen im Hinblick auf eine bessere Meldung und Aufdeckung verdächtiger Listen, die Verbesserung der Moderationsverfahren zur raschen Entfernung illegaler Gegenstände und die Verfeinerung der Algorithmen umfassen, um die Förderung und den Verkauf verbotener Waren zu verhindern.

- Temu muss seine internen Prozesse, Ressourcen, Tests, Dokumentation und Überwachung aller Tätigkeiten im Zusammenhang mit der Erkennung systemischer Risiken verstärken.

Verstärkte Verbraucherschutzmaßnahmen

- In den jährlichen Risikobewertungsberichten von Temu müssen insbesondere mögliche negative Auswirkungen auf die Gesundheit und Sicherheit der Verbraucher bewertet werden, wobei der Schwerpunkt auf dem körperlichen und geistigen Wohlbefinden minderjähriger Nutzer liegen sollte.

- Temu ist verpflichtet, seine Plattform, einschließlich Benutzerschnittstellen, Empfehlungsalgorithmen und Nutzungsbedingungen, zu strukturieren, um Risiken für die Sicherheit und das Wohlbefinden der Verbraucher zu mindern und zu verhindern. Es müssen Maßnahmen ergriffen werden, um die Verbraucher vor dem Kauf unsicherer oder illegaler Waren zu schützen, wobei ein besonderer Schwerpunkt darauf liegen sollte, den Verkauf und Vertrieb von Produkten, die für Minderjährige schädlich sein könnten, zu verhindern. Dazu gehört auch die Einführung robuster Alterssicherungssysteme, um den Kauf altersbegrenzter Güter zu beschränken.

Mehr Transparenz und Rechenschaftspflicht

- Temu muss sicherstellen, dass seine Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste jedes Jahr extern und unabhängig geprüft werden.

-Temu muss Repository aller Anzeigen veröffentlichen, die auf seiner Schnittstelle angezeigt werden.

- Temu muss Forschern, einschließlich zugelassener Forscher, die von den Koordinatoren für digitale Dienste benannt wurden, Zugang zu öffentlich zugänglichen Daten gewähren.

- Temu muss die Transparenzanforderungen erfüllen, einschließlich der Veröffentlichung von Transparenzberichten über Entscheidungen zur Moderation von Inhalten und des Risikomanagements alle sechs Monate zusätzlich zu den Berichten über die Systemrisiken und den Prüfungsergebnissen einmal jährlich.

- Temu muss eine Compliance-Funktion benennen und jedes Jahr einer externen unabhängigen Prüfung unterzogen werden.

Allgemeine Anwendbarkeit des Gesetzes über digitale Dienste auf Online-Plattformen und -Marktplätze

Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich Temu, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Diese allgemeinen Bestimmungen umfassen die Verpflichtung von Online-Marktplätzen,

- Gewährleistung der Rückverfolgbarkeit von Händlern auf ihren Plattformen;
- Ihre Schnittstelle so zu gestalten, dass den Unternehmern die Einhaltung ihrer rechtlichen Verpflichtungen nach dem EU-Recht erleichtert wird;
- Die Verbraucher über den Kauf eines illegalen Produkts informieren, sobald sie von der Illegalität des Produkts Kenntnis erlangen.


Seit dem 17. Februar 2024 sind alle Online-Plattformen, einschließlich Marktplätze, nach dem Gesetz über digitale Dienste außerdem verpflichtet,

- Bereitstellung benutzerfreundlicher Mechanismen, die es Nutzern oder Stellen ermöglichen, illegale Inhalte zu melden;
- Der Behandlung von Meldungen, die von sogenannten „vertrauenswürdigen Hinweisgebern“ übermittelt werden, Vorrang einzuräumen;
- Den Nutzern Begründungen zur Verfügung zu stellen, wenn ihre Inhalte eingeschränkt oder entfernt werden;
- Bereitstellung eines internen Beschwerdemanagementsystems für Nutzer, um Entscheidungen über die Moderation von Inhalten anzufechten;
- Ihre Systeme neu gestalten, um ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu gewährleisten;
- Sicherstellen, dass ihre Schnittstellen nicht so gestaltet sind, dass die Nutzer getäuscht oder manipuliert werden;
- Werbung auf ihren Schnittstellen deutlich kennzeichnen;
- Die Anzeige gezielter Werbung auf der Grundlage von Profilen sensibler Daten (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung) oder die sich an Minderjährige richtet, einzustellen;
- Klare Bedingungen haben und bei ihrer Anwendung sorgfältig, objektiv und verhältnismäßig handeln;
- Sie veröffentlichen einmal jährlich Transparenzberichte über ihre Verfahren zur Moderation von Inhalten.

Nächste Schritte

Nach ihrer Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch Temu in Zusammenarbeit mit dem irischen Koordinator für digitale Dienste zu überwachen.

Die Kommissionsdienststellen werden die Anwendung der Vorschriften und Verpflichtungen des Gesetzes über digitale Dienste durch die Plattform sorgfältig überwachen, insbesondere in Bezug auf Maßnahmen zur Gewährleistung des Verbraucherschutzes und zur Bekämpfung der Verbreitung illegaler Produkte. Die Kommissionsdienststellen sind bereit, eng mit Temu zusammenzuarbeiten, um sicherzustellen, dass diese angemessen angegangen werden.

Hintergrund

Diese Bezeichnung veranschaulicht, wie die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt. Die Kommission hat nun 24 sehr große Online-Plattformen und Suchmaschinen im Rahmen des Gesetzes über digitale Dienste benannt.

Am 25. April 2023 benannte die Kommission die ersten 19 sehr großen Betriebsplattformen (VLOP) und sehr große Online-Suchmaschinen (VLOSE). Ab Ende August mussten diese sehr großen Online-Plattformen und sehr großen Online-Plattformen die zusätzlichen Verpflichtungen gemäß Abschnitt 5 des Gesetzes über digitale Dienste erfüllen. Am 20. Dezember 2023 wurden drei weitere sehr große Online -Plattformen benannt. Am 26. April 2024 benannte die Kommission Shein als VLOP, für das die zusätzliche Verpflichtung im August 2024 verbindlich wird.

Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste wird von der Kommission und den Koordinatoren für digitale Dienste geteilt, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.

EU-Kommission: Weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite

Die EU-Kommission hat ein weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite eingleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet Verfahren gegen TikTok im Rahmen des Gesetzes über digitale Dienste wegen des Starts von TikTok Lite in Frankreich und Spanien ein und teilt ihre Absicht mit, das Belohnungsprogramm in der EU auszusetzen

Die Kommission hat heute ein zweites förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste (DSA) eingeleitet. Mit der heutigen Eröffnung soll geprüft werden, ob das Unternehmen bei der Gründung von TikTok Lite in Frankreich und Spanien möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Die Kommission ist besorgt darüber, dass das „Task and Reward Program“ von TikTok Lite, das es Nutzern ermöglicht, Punkte zu erhalten, wenn sie bestimmte „Aufgaben“ auf TikTok erfüllen – wie z. B. Videos, Liking-Inhalte, Nachbereiter, Einladung von Freunden zum Beitritt zu TikTok usw. – ohne vorherige sorgfältige Bewertung der damit verbundenen Risiken, insbesondere der mit dem Suchteffekt der Plattformen verbundenen Risiken, und ohne wirksame Risikominderungsmaßnahmen zu ergreifen. Dies ist für Kinder besonders besorgniserregend, da auf TikTok vermutet wird, dass es keine wirksamen Mechanismen zur Altersüberprüfung gibt. Das Fehlen wirksamer Mechanismen zur Altersüberprüfung und die mutmaßliche suchterzeugende Gestaltung der Plattformen werden bereits im ersten förmlichen Verfahren gegen TikTok untersucht.

Die Untersuchung wird sich daher auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtung von TikTok, vor der Einführung von Funktionen, in diesem Fall des Programms „Task and Reward Lite“, einen Risikobewertungsbericht zu erstellen und vorzulegen, die wahrscheinlich kritische Auswirkungen auf Systemrisiken haben werden. Insbesondere negative Auswirkungen auf die psychische Gesundheit, einschließlich der psychischen Gesundheit Minderjähriger, insbesondere aufgrund des neuen Merkmals, das Suchtverhalten stimuliert.
- Die von TikTok ergriffenen Maßnahmen zur Minderung dieser Risiken.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Darüber hinaus übermittelte die Kommission TikTok auf der Grundlage eines Beschlusses der Kommission ein förmliches Auskunftsverlangen, in dem das Unternehmen zur Beantwortung seines Auskunftsersuchens vom 17. April 2024 aufgefordert wurde. Insbesondere hatte die Kommission TikTok aufgefordert, bis zum 18. April den Risikobewertungsbericht für TikTok Lite sowie Informationen über die Maßnahmen vorzulegen, die die Plattform ergriffen hat, um potenzielle systemische Risiken dieser neuen Funktionen zu mindern. TikTok hat dieses Dokument nicht fristgerecht vorgelegt.

TikTok hat nun bis zum 23. April Zeit, der Kommission den Risikobewertungsbericht und bis zum 3. Mai die übrigen angeforderten Informationen vorzulegen.

Falls TikTok das Auskunftsersuchen der Kommission nicht innerhalb der angegebenen Fristen per Beschluss beantwortet, kann die Kommission Geldbußen in Höhe von bis zu 1 % des jährlichen Gesamtumsatzes oder des weltweiten Gesamtumsatzes des Anbieters sowie Zwangsgelder in Höhe von bis zu 5 % des durchschnittlichen Tageseinkommens des Anbieters oder des weltweiten Jahresumsatzes verhängen.

Da TikTok nicht in der Lage war, die Risikobewertung vorzulegen, die vor der Einführung von TikTok Lite hätte durchgeführt werden müssen, vermutet die Kommission einen prima facie Verstoß gegen das Gesetz über digitale Dienste und ist der Auffassung, dass die Gefahr einer schwerwiegenden Schädigung der psychischen Gesundheit der Nutzer besteht. Die Kommission hat TikTok daher auch ihre Absicht mitgeteilt, vorläufige Maßnahmen zu ergreifen, die in der Aussetzung des Programms „TikTok Lite“ in der EU bis zur Bewertung seiner Sicherheit bestehen. Es könnte verlängert werden, wenn dies notwendig und verhältnismäßig ist. Vor der förmlichen Annahme der Aussetzung wurde TikTok bis zum 24. April Zeit eingeräumt, in seiner Verteidigung Argumente vorzubringen, die die Kommission sorgfältig prüfen wird.

Nächste Schritte
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße zu überwachen und durchzusetzen.

Hintergrund
Am 25. April 2023 benannte die Kommission TikTok gemäß dem Gesetz über digitale Dienste auf der Grundlage der TikTok -Nutzerdatenbank, die den Schwellenwert von 45 Millionen durchschnittlichen aktiven Nutzern in der EU erreicht, TikTok als sehr große Online-Plattform. Seit Ende August 2023 unterliegt TikTok den Verpflichtungen aus dem Gesetz über digitale Dienste.

TikTok Lite ist eine neue App mit einer Funktion für Nutzer ab 18 Jahren, die als „Task and Reward Program“ bezeichnet wird und es Nutzern ermöglicht, bei der Ausführung bestimmter „Aufgaben“ auf TikTok Punkte zu erhalten, wie z. B. Videos anschauen, Liking-Inhalte, Nachschaffende, Einladung von Freunden zum TikTok usw. Diese Punkte können gegen Belohnung wie Amazon-Gutscheine, Geschenkkarten über PayPal oder TikTok-Münzen, die für Kipper ausgegeben werden können, ausgetauscht werden. TikTok Lite wurde im letzten Monat in Frankreich und Spanien ins Leben gerufen.

Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Im Februar 2024 leitete die Kommission ein erstes förmliches Verfahren gegen TikTok ein, um zu prüfen, ob TikTok möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit dem Schutz Minderjähriger, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte zusammenhängen. Die Untersuchung ist noch nicht abgeschlossen.

Derzeit sind zwei weitere förmliche Verfahren im Rahmen des Gesetzes über digitale Dienste anhängig: eine gegen X und eine gegen AliExpress.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EU-Kommission: Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet

Die EU-Kommission hat Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet.

Die Pressemitteilung der EU-Kommission:
Commission opens non-compliance investigations against Alphabet, Apple and Meta under the Digital Markets Act

Today, the Commission has opened non-compliance investigations under the Digital Markets Act (DMA) into Alphabet's rules on steering in Google Play and self-preferencing on Google Search, Apple's rules on steering in the App Store and the choice screen for Safari and Meta's “pay or consent model”.

The Commission suspects that the measures put in place by these gatekeepers fall short of effective compliance of their obligations under the DMA.

In addition, the Commission has launched investigatory steps relating to Apple's new fee structure for alternative app stores and Amazon's ranking practices on its marketplace. Finally, the Commission has ordered gatekeepers to retain certain documents to monitor the effective implementation and compliance with their obligations.

Alphabet's and Apple's steering rules

The Commission has opened proceedings to assess whether the measures implemented by Alphabet and Apple in relation to their obligations pertaining to app stores are in breach of the DMA. Article 5(4) of the DMA requires gatekeepers to allow app developers to “steer” consumers to offers outside the gatekeepers' app stores, free of charge.

The Commission is concerned that Alphabet's and Apple's measures may not be fully compliant as they impose various restrictions and limitations. These constrain, among other things, developers' ability to freely communicate and promote offers and directly conclude contracts, including by imposing various charges.

Alphabet's measures to prevent self-preferencing

The Commission has opened proceedings against Alphabet, to determine whether Alphabet's display of Google search results may lead to self-preferencing in relation to Google's vertical search services (e.g., Google Shopping; Google Flights; Google Hotels) over similar rival services.

The Commission is concerned that Alphabet's measures implemented to comply with the DMA may not ensure that third-party services featuring on Google's search results page are treated in a fair and non-discriminatory manner in comparison with Alphabet's own services, as required by Article 6(5) of the DMA.

Apple's compliance with user choice obligations

The Commission has opened proceedings against Apple regarding their measures to comply with obligations to (i) enable end users to easily uninstall any software applications on iOS, (ii) easily change default settings on iOS and (iii) prompt users with choice screens which must effectively and easily allow them to select an alternative default service, such as a browser or search engine on their iPhones.

The Commission is concerned that Apple's measures, including the design of the web browser choice screen, may be preventing users from truly exercising their choice of services within the Apple ecosystem, in contravention of Article 6(3) of the DMA.

Meta's “pay or consent” model

Finally, the Commission has opened proceedings against Meta to investigate whether the recently introduced “pay or consent” model for users in the EU complies with Article 5(2) of the DMA which requires gatekeepers to obtain consent from users when they intend to combine or cross-use their personal data across different core platform services.

The Commission is concerned that the binary choice imposed by Meta's “pay or consent” model may not provide a real alternative in case users do not consent, thereby not achieving the objective of preventing the accumulation of personal data by gatekeepers.

Other investigatory and enforcement steps

The Commission is also taking other investigatory steps to gather facts and information to clarify whether:

Amazon may be preferencing its own brand products on the Amazon Store in contravention of Article 6(5) of the DMA, and
Apple's new fee structure and other terms and conditions for alternative app stores and distribution of apps from the web (sideloading) may be defeating the purpose of its obligations under Article 6(4) of the DMA.
The Commission has also adopted five retention orders addressed to Alphabet, Amazon, Apple, Meta, and Microsoft, asking them to retain documents which might be used to assess their compliance with the DMA obligations, so as to preserve available evidence and ensure effective enforcement.

Finally, the Commission has granted Meta an extension of 6 months to comply with the interoperability obligation (Article 7 DMA) for Facebook Messenger. The decision is based on a specific provision in Article 7(3)DMA and follows a reasoned request submitted by Meta. Facebook Messenger remains subject to all other DMA obligations.

Next steps

The Commission intends to conclude the proceedings opened today within 12 months. If warranted following the investigation, the Commission will inform the concerned gatekeepers of its preliminary findings and explain the measures it is considering taking or the gatekeeper should take in order to effectively address the Commission's concerns.

In case of an infringement, the Commission can impose fines up to 10% of the company's total worldwide turnover. Such fines can go up to 20% in case of repeated infringement. Moreover, in case of systematic infringements, the Commission may also adopt additional remedies such as obliging a gatekeeper to sell a business or parts of it, or banning the gatekeeper from acquisitions of additional services related to the systemic non-compliance.

Background

The DMA aims to ensure contestable and fair markets in the digital sector. It regulates gatekeepers, which are large digital platforms that provide an important gateway between business users and consumers, whose position can grant them the power to create a bottleneck in the digital economy.

Alphabet, Amazon, Apple, ByteDance, Meta and Microsoft, the six gatekeepers designated by the Commission in September 2023, had to fully comply with all DMA obligations by 7 March 2024. The Commission has assessed the compliance reports setting out gatekeepers' compliance measures, and gathered feedback from stakeholders, including in the context of workshops.

Today's formal non-compliance proceedings against Alphabet, Apple and Meta have been opened pursuant to Article 20 DMA in conjunction with Articles 13 and 29 DMA for breach of Articles 5(2), 5(4), 6(3) and 6(5) DMA respectively.



EU-Kommission: Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen der Bereiche Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung

Die EU-Kommission hat ein förmliches Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen möglicher Mängel in den Bereichen Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok in Bereichen im Zusammenhang mit dem Jugendschutz, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich einer Analyse des von TikTok im September 2023 übermittelten Risikobewertungsberichts sowie der Antworten von TikTok auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten, zum Schutz Minderjähriger und zum Datenzugang), hat die Kommission beschlossen,ein förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

Die Einhaltung der Verpflichtungen im Rahmen des Gesetzes über digitale Dienste im Zusammenhang mit der Bewertung und Minderung systemischer Risiken in Bezug auf tatsächliche oder vorhersehbare negative Auswirkungen, die sich aus der Gestaltung des TikTok-Systems, einschließlich algorithmischer Systeme, ergeben und die Verhaltensabhängigkeit stimulieren und/oder sogenannte „Kabbit-Locheffekte“ hervorrufen können. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden der Person, die Achtung der Rechte des Kindes sowie dessen Auswirkungen auf Radikalisierungsprozesse entgegenzuwirken. Darüber hinaus sind die diesbezüglich bestehenden Risikominderungsmaßnahmen, insbesondere die von TikTok verwendeten Instrumente zur Altersüberprüfung, um den Zugang Minderjähriger zu unangemessenen Inhalten zu verhindern, möglicherweise nicht angemessen, verhältnismäßig und wirksam;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere in Bezug auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Gestaltung und Funktionsweise ihrer Empfehlungssysteme;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf TikTok bereitzustellen;
Die von TikTok ergriffenen Maßnahmen zur Erhöhung der Transparenz seiner Plattform. Die Untersuchung betrifft mutmaßliche Mängel beim Zugang von Forschern zu öffentlich zugänglichen Daten von TikTok gemäß Artikel 40 des Gesetzes über digitale Dienste.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1, Artikel 28 Absatz 1, Artikel 39 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die einen Verstoß nach dem Gesetz über digitale Dienste darstellen könnten, beispielsweise im Zusammenhang mit den Verpflichtungen eines Anbieters in Bezug auf die Verbreitung illegaler Inhalte wie terroristische Inhalte oder sexuellen Kindesmissbrauch im Internet oder die Meldung eines Verdachts auf Straftaten.

Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die von anderen Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergriffen werden.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
TikTok wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 135,9 Millionen monatlich aktive Nutzer in der EU hat. Als VLOP musste TikTok vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von im Gesetz über digitale Dienste festgelegten Verpflichtungen beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


Präsiden des EuG lehnt Eilantrag von TikTok / Bytedance gegen Einordnung als Gatekeeper im Sinn des Digital Markets Act (DMA) durch EU-Kommission ab

Präsiden des EuG
Beschluss vom 09.20.2024
T-1077/23
Bytedance / EU-Kommission

Der Präsident des EuG hat den Eilantrag von TikTok / Bytedance gegen die Einordnung als Gatekeeper im Sinn des Digital Markets Act (DMA) durch die EU-Kommission abgelehnt.

Die Pressemitteilung des Gerichts:
Verordnung über digitale Märkte: Der Antrag von ByteDance (TikTok) auf Aussetzung des Beschlusses der Kommission, mit dem ByteDance als Torwächter benannt wird, wird zurückgewiesen

ByteDance hat die Dringlichkeit einer vorläufigen Entscheidung zur Verhinderung eines schweren und nicht wiedergutzumachenden Schadens nicht dargetan.

Die ByteDance Ltd ist eine 2012 in China gegründete nicht operative Holdinggesellschaft, die über lokale Tochtergesellschaften die Unterhaltungsplattform TikTok bereitstellt.

Mit Beschluss vom 5. September 2023 benannte die Kommission ByteDance als Torwächter gemäß der Verordnung über digitale Märkte.

Im November 2023 erhob ByteDance Klage auf Nichtigerklärung dieses Beschlusses. Mit gesondertem Schriftsatz hat sie einen Antrag auf vorläufigen Rechtsschutz gestellt, mit dem sie die Aussetzung des Kommissionsbeschlusses begehrt. Mit seinem heutigen Beschluss weist der Präsident des Gerichts den Antrag von ByteDance auf vorläufigen Rechtsschutz zurück.

ByteDance hat danach nicht dargetan, dass es erforderlich wäre, den streitigen Beschluss bis zum Abschluss des Verfahrens zur Hauptsache auszusetzen, um zu verhindern, dass sie einen schweren und nicht wiedergutzumachenden Schaden erleidet.

ByteDance machte u. a. geltend, dass bei sofortiger Durchführung des streitigen Beschlusses die Gefahr bestehe, dass sonst nicht öffentliche, hochstrategische Informationen über die Praktiken von TikTok bei der Erstellung von Nutzerprofilen verbreitet würden. Diese Informationen würden es, so ByteDance, den Wettbewerbern von TikTok und sonstigen Dritten ermöglichen, über die TikTok betreffenden Geschäftsstrategien in einer Weise informiert zu sein, die ihren Tätigkeiten erheblich abträglich wäre. Ausweislich des heutigen Beschlusses hat ByteDance jedoch weder das Bestehen einer tatsächlichen Gefahr der Verbreitung vertraulicher Informationen noch einen etwaigen schweren und nicht wiedergutzumachenden Schaden infolge einer solchen Gefahr dargetan.

Den Volltext des Beschlusses finden Sie hier:

LG München: Ansprüche gegen TikTok wegen Urheberrechtsverletzungen durch von Nutzern hochgeladene Videos - keine bestmögliche Anstrengungen zur Lizenzierung nach § 4 Abs. 1 S. 1 UrhDaG

LG München
Urteil vom 09.02.2024
42 O 10792/22


Das LG München hat entschieden, dass Rechteinhaber Ansprüche gegen den Betreiber der Plattform TikTok wegen Urheberrechtsverletzungen durch von Nutzern hochgeladene Videos zustehen. Der Plattformbetreiber hat keine bestmögliche Anstrengungen zu Lizenzierung im Sinne von § 4 Abs. 1 S. 1 UrhDaG unternommen.

Die Pressemitteilung des Gerichts:
„Verhandlungspflicht für digitale Plattform“
Die für das Urheberrecht zuständige 42. Zivilkammer hat heute eine digitale Plattform zu Unterlassung und Auskunft für das öffentliche Zugänglichmachen von Filmproduktionen verurteilt und ihre Verpflichtung zum Schadenersatz festgestellt, da die Plattform bestmögliche Anstrengungen im Sinne von § 4 Abs. 1 S. 1 UrhDaG hat vermissen lassen, um die seitens der Klägerin hierfür angebotenen Nutzungsrechte zu erwerben (42 O 10792/22). Eine derartige Obliegenheit fordert das Gesetz über die urheberrechtliche Verantwortlichkeit von Dienstanbietern für das Teilen von Online-Inhalten zur Anwendung vom 21.05.2021, das die sogenannte DSM Richtlinie im deutschen Recht umsetzt.

Die Beklagte betreibt eine digitale Plattform insbesondere zum Erstellen und Teilen von Videos. Die vornehmlich von Nutzern generierten und hochgeladenen Videos werden von der Beklagten gespeichert, organisiert und anderen Nutzern öffentlich zugänglich gemacht. Die Klägerin hat die Beklagte auf diverse unberechtigte Veröffentlichungen verschiedener Filme auf ihrer Plattform hingewiesen und angeboten, diese kostenpflichtig zu lizenzieren. Die zwischen den Parteien geführten Verhandlungen blieben allerdings ohne Ergebnis.

Die Beklagte ist antragsgemäß zu verurteilen, da sie für die erfolgten öffentlichen Wiedergaben der Filmproduktionen urheberrechtlich verantwortlich ist und sich nicht auf eine Enthaftung nach § 1 Abs. 2 UrhDaG berufen kann. Während die Klägerin ihren Obliegenheiten bei den Lizenzverhandlungen nachgekommen ist und ein konkretes Angebot unterbreitet hat, hat die Beklagte die erforderlichen bestmöglichen Anstrengungen im Sinne von § 4 Abs. 1 S. 1 UrhDaG vermissen lassen, um die seitens der Klägerin angebotenen Nutzungsrechte zu erwerben.

Ob der Diensteanbieter bestmögliche Anstrengungen unternommen hat, ist auf Grundlage einer umfassenden Betrachtung des Einzelfalls unter Berücksichtigung des Verhältnismäßigkeitsgrundsatzes zu beurteilen. Nach den Leitlinien zu Art. 17 der RL 2019/790/EU sind die Verhandlungen zwischen den Diensteanbietern und Rechteinhabern fair und zügig zu führen, wobei für die konkrete Ausgestaltung auf die bereits in Art. 16 der RL 2014/26/EU statuierten Verhandlungsgrundsätze zurückgegriffen werden kann, die im deutschen Recht ihre Umsetzung in § 36 VGG gefunden haben und Ausdruck verallgemeinerbarer Grundsätze sind.

Das konkrete Verhalten der Beklagte ließ nicht das Ziel erkennen, alsbald zu einem beiderseits interessengerechten Ergebnis zu gelangen. Die Verhandlungen waren vielmehr von einem einseitigen Informationsfluss von der Klägerin zur Beklagten geprägt.

Da die Beklagte gegen ihre Lizenzobliegenheit nach § 4 UrhDaG verstoßen hat, kann dahinstehen, ob die Beklagten ihre Pflichten zur einfachen und qualifizierten Blockierung nach §§ 7, 8 UrhDaG erfüllt hat. Um in den Vorteil der Enthaftung zu kommen, hat die Beklagte die Pflichten aus §§ 4, 7 bis 11 UrhDaG kumulativ zu erfüllen. Die folgt nicht nur aus dem Wortlaut, sondern auch aus dem regulatorischen Kontext der genannten Vorschriften. Die §§ 1 ff. UrhDaG bezwecken in Umsetzung von Art. 17 der RL 2019/790/EU diejenigen, deren urheberrechtlich geschützte Inhalte auf Upload-Plattformen genutzt werden, an der dabei stattfindenden Wertschöpfung partizipieren zu lassen. Die Entwicklung des Marktes für die Vergabe von Lizenzen zwischen Rechteinhabern und Diensteanbietern für das Teilen von Online-Inhalten soll gefördert und den Rechtsinhabern die Erzielung höherer Lizenzeinnahmen ermöglicht werden. Die angestrebte Teilhabe des Rechteinhabers an der Wertschöpfung liefe indes leer, wenn es der Diensteanbieter in der Hand hätte, in den Fällen des § 4 Abs. 2 UrhDaG zwischen Lizenzierung und Blockierung zu wählen und sich im Falle eines Verstoßes gegen die Lizenzierungsobliegenheit auf die getroffenen Maßnahmen zur qualifizierten Blockierung (§ 7 UrhDaG) und einfachen Blockierung (§ 8 UrhDaG) zurückzuziehen.

Das Urteil ist nicht rechtskräftig.



Zum Hintergrund:

Gesetz über die urheberrechtliche Verantwortlichkeit von Dienstanbietern für das Teilen von Online-Inhalten

§ 4 UrhDaG - Pflicht zum Erwerb vertraglicher Nutzungsrechte; Direktvergütungsanspruch des Urhebers
(1) Ein Diensteanbieter ist verpflichtet, bestmögliche Anstrengungen zu unternehmen, um die vertraglichen Nutzungsrechte für die öffentliche Wiedergabe urheberrechtlich geschützter Werke zu erwerben. Der Diensteanbieter erfüllt diese Pflicht, sofern er Nutzungsrechte erwirbt, die

1.
ihm angeboten werden,

2.
über repräsentative Rechtsinhaber verfügbar sind, die der Diensteanbieter kennt, oder

3.
über im Inland ansässige Verwertungsgesellschaften oder abhängige Verwertungseinrichtungen erworben werden können.
(2) Nutzungsrechte nach Absatz 1 Satz 2 müssen

1.
für Inhalte gelten, die der Diensteanbieter ihrer Art nach offensichtlich in mehr als geringfügigen Mengen öffentlich wiedergibt,

2.
in Bezug auf Werke und Rechtsinhaber ein erhebliches Repertoire umfassen,

3.
den räumlichen Geltungsbereich dieses Gesetzes abdecken und

4.
die Nutzung zu angemessenen Bedingungen ermöglichen.

(3) Hat der Urheber das Recht der öffentlichen Wiedergabe eines Werkes einem Dritten eingeräumt, so hat der Diensteanbieter für vertragliche Nutzungen gleichwohl dem Urheber eine angemessene Vergütung für die öffentliche Wiedergabe des Werkes zu zahlen. Satz 1 ist nicht anzuwenden, wenn der Dritte eine Verwertungsgesellschaft ist oder der Urheber den Dritten als Digitalvertrieb einschaltet.

(4) Der Urheber kann auf den Direktvergütungsanspruch nach Absatz 3 nicht verzichten und diesen im Voraus nur an eine Verwertungsgesellschaft abtreten. Er kann nur durch eine Verwertungsgesellschaft geltend gemacht werden.




EuGH: Google, Meta Platforms und Tik Tok dürfen zusätzliche Verpflichtungen in anderem Mitgliedstaat als dem ihres Sitzes nur im konkreten Einzelfall auferlegt werden

EuGH
Urteil vom 09.11.2023
C-376/22
Google Ireland, Meta Platforms Ireland, TikTok


Der EuGH hat entschieden, dass Anbietern wie Google, Meta Platforms und Tik Tok zusätzliche Verpflichtungen in einem anderen Mitgliedstaat als dem ihres Sitzes nur im konkreten Einzelfall auferlegt werden dürfen.

Die Pressemitteilung des EuGH:
Bekämpfung rechtswidriger Inhalte im Internet: Ein Mitgliedstaat darf einem Anbieter einer Kommunikationsplattform, der in einem anderen Mitgliedstaat niedergelassen ist, keine generell-abstrakten Verpflichtungen auferlegen

Eine solche nationale Herangehensweise verstößt gegen das Unionsrecht, das den freien Verkehr von Diensten der Informationsgesellschaft durch den Grundsatz der Aufsicht im Herkunftsmitgliedstaat des betreffenden Dienstes gewährleiste.

Im Jahr 2021 hat Österreich ein Gesetz eingeführt, das inländische und ausländische Anbieter von Kommunikationsplattformen verpflichtet, Melde- und Überprüfungsverfahren für potenziell rechtswidrige Inhalte einzurichten. Dieses Gesetz sieht auch eine regelmäßige und transparente Veröffentlichung von Meldungen rechtswidriger Inhalte vor. Eine Verwaltungsbehörde stellt die Einhaltung der gesetzlichen Bestimmungen sicher und kann Geldstrafen in Höhe von bis zu 10 Mio. Euro verhängen.

Google Ireland, Meta Platforms Ireland und TikTok, drei in Irland ansässige Plattformen, machen geltend, dass das österreichische Gesetz gegen das Unionsrecht, konkret gegen die Richtlinie über Dienste der Informationsgesellschaft , verstoße.

Hierzu von einem österreichischen Gericht befragt, weist der Gerichtshof auf das Ziel der Richtlinie hin: Schaffung eines rechtlichen Rahmens, um den freien Verkehr von Diensten der Informationsgesellschaft zwischen den Mitgliedstaaten sicherzustellen. Unter diesem Gesichtspunkt beseitigt die Richtlinie durch den Grundsatz der Aufsicht im Herkunftsmitgliedstaat die Hemmnisse, die die verschiedenen nationalen, auf diese Dienste anwendbaren Regelungen darstellen.

Zwar können andere Mitgliedstaaten als der Herkunftsmitgliedstaat des betreffenden Dienstes unter eng gefassten Bedingungen und in bestimmten Fällen tatsächlich Maßnahmen ergreifen, um die öffentliche Ordnung, den Schutz der öffentlichen Gesundheit, die öffentliche Sicherheit oder den Schutz der Verbraucher zu gewährleisten. Diese konkreten Ausnahmen sind der Europäischen Kommission und dem Herkunftsmitgliedstaat mitzuteilen.

Jedoch dürfen andere Mitgliedstaaten als der Herkunftsmitgliedstaat des betreffenden Dienstes keine generell-abstrakten Maßnahmen ergreifen, die unterschiedslos für alle Anbieter einer Kategorie von Diensten der Informationsgesellschaft gelten. Unterschiedslos bedeutet ohne Unterschied zwischen in diesem Mitgliedstaat ansässigen Diensteanbietern und solchen, die in anderen Mitgliedstaaten niedergelassen sind.

Hätten diese Mitgliedstaaten die Möglichkeit, solche generell-abstrakten Verpflichtungen zu erlassen, würde dies nämlich den Grundsatz der Aufsicht im Herkunftsmitgliedstaat des betreffenden Dienstes, auf dem die Richtlinie beruht, in Frage stellen. Wäre der Bestimmungsmitgliedstaat (hier Österreich) ermächtigt, solche Maßnahmen zu erlassen, würde in die Regelungskompetenz des Herkunftsmitgliedstaats (hier Irlands) eingegriffen. Im Übrigen würde dies das gegenseitige Vertrauen zwischen den Mitgliedstaaten untergraben und gegen den Grundsatz der gegenseitigen Anerkennung verstoßen. Zudem unterlägen die betreffenden Plattformen unterschiedlichen Rechtsvorschriften, was auch dem freien Dienstleistungsverkehr und damit dem reibungslosen Funktionieren des Binnenmarkts zuwiderlaufen würde.


Den Volltext der Entscheidung finden Sie hier:

EU-Kommission: Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.

Die Pressemitteilung der EU-Kommission vom 25.04.2023:

Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:

Sehr große Online-Plattformen:

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:

Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.

Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:

Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.

Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:

Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.

Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:

Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.

Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.

Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.

Ein höheres Maß an Transparenz und Rechenschaftspflicht:

Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.

Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.

Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.

Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.

Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.



Irische Datenschutzbehörde: Bußgeld in Höhe von 345 Millionen EURO gegen TikTok wegen diverser Verstöße gegen die DSGVO

Die Irische Datenschutzbehörde hat ein Bußgeld in Höhe von 345 Millionen EURO gegen TikTok wegen diverser Verstöße gegen die DSGVO verhängt.

Die Pressemitteilung der Irish Data Protection Commission:
Irish Data Protection Commission announces €345 million fine of TikTok

The Data Protection Commission (DPC) adopted its final decision regarding its inquiry into TikTok Technology Limited (TTL) on 1 September 2023.

This own-volition inquiry sought to examine the extent to which, during the period between 31 July 2020 and 31 December 2020 (the Relevant Period), TTL complied with its obligations under the GDPR in relation to its processing of personal data relating to child users of the TikTok platform in the context of:

Certain TikTok platform settings, including public-by-default settings as well as the settings associated with the ‘Family Pairing’ feature; and
Age verification as part of the registration process.
As part of the inquiry, the DPC also examined certain of TTL’s transparency obligations, including the extent of information provided to child users in relation to default settings.

At the conclusion of its investigation, the DPC submitted a draft decision to all Supervisory Authorities Concerned (CSAs), for the purpose of Article 60(3) GDPR, on 13 September 2022. The DPC’s draft decision proposed findings of infringement of Articles 5(1)(c), 5(1)(f), 24(1), 25(1), 25(2), 12(1) and 13(1)(e) GDPR, in relation to the above processing. While there was broad consensus on the DPC’s proposed findings, objections to the draft decision were raised by the Supervisory Authorities (each an SA, collectively SAs) of Italy and Berlin (acting on behalf of itself and the Baden-Württemberg SA).

The objection raised by the Berlin SA sought the inclusion of an additional finding of infringement of the Article 5(1)(a) GDPR principle of fairness as regards ‘dark patterns’ while the objection raised by the Italian SA sought to reverse the DPC’s proposed finding of compliance with Article 25 GDPR, as regards TTL’s approach to age verification during the Relevant Period. The DPC was unable to reach consensus with the CSAs on the subject-matter of the objections and, in the circumstances, decided to refer the objections to the EDPB for determination pursuant to the Article 65 GDPR dispute resolution mechanism.

The European Data Protection Board adopted its binding decision on the subject matter of the objections on 2 August 2023 with a direction that the DPC must amend its draft decision to include a new finding of infringement of the Article 5(1)(a) GDPR principle of fairness, further to the objection raised by the Berlin SA, and to extend the scope of the existing order to bring processing into compliance, to include reference to the remedial work required to address this new finding of infringement.

The DPC’s decision, which was adopted on 1 September 2023, records findings of infringement of Articles 5(1)(c), 5(1)(f), 24(1), 25(1), 25(2), 12(1), 13(1)(e) and 5(1)(a) GDPR. The decision further exercises the following corrective powers:

A reprimand;
An order requiring TTL to bring its processing into compliance by taking the action specified within a period of three months from the date on which the DPC’s decision is notified to TTL; and
Administrative fines totalling €345 million.
For more information, the EDPB has published the Article 65 decision and the final decision on its website.


Die vollständige Entscheidung finden Sie hier:

EU-Kommission: Alphabet, Amazon, Apple, ByteDance, Meta und Microsoft sind Gatekeeper im Sinn des Digital Markets Act (DMA)

Die EU-Kommission hat festgestellt, dass Alphabet, Amazon, Apple, ByteDance, Meta und Microsoft Gatekeeper im Sinn des Digital Markets Act (DMA) sind.

Die Pressemitteilung der EU-Kommission:
Die Europäische Kommission hat heute im Rahmen des Gesetzes über digitale Märkte erstmals sechs Torwächter (Gatekeeper) benannt: Alphabet, Amazon, Apple, ByteDance, Meta und Microsoft. Insgesamt wurden 22 zentrale Plattformdienste, die von Torwächtern bereitgestellt werden, benannt. Die sechs Torwächter haben nun sechs Monate Zeit, um die vollständige Einhaltung der Verpflichtungen gemäß dem Gesetz über digitale Märkte für jeden ihrer benannten zentralen Plattformdienste sicherzustellen.

Im Rahmen des Gesetzes über digitale Märkte kann die Europäische Kommission digitale Plattformen als „Torwächter“ benennen, wenn diese für Unternehmen über zentrale Plattformdienste ein wichtiges Zugangstor zu Verbraucherinnen und Verbrauchern darstellen. Die heutigen Benennungsbeschlüsse sind das Ergebnis einer Überprüfung durch die Kommission über 45 Tage, nachdem Alphabet, Amazon, Apple, ByteDance, Meta, Microsoft und Samsung ihren potenziellen Torwächter-Status mitgeteilt hatten. Insbesondere hat die Kommission den Torwächter-Status für die folgenden zentralen Plattformdienste festgestellt:

Parallel dazu hat die Kommission vier Marktuntersuchungen eingeleitet, um die eingereichten Mitteilungen von Microsoft und Apple weiter zu prüfen, denen zufolge einige ihrer zentralen Plattformdienste nicht als Zugangstore anzusehen sind, obwohl sie die Schwellenwerte erreichen:

Microsoft: Bing, Edge und Microsoft Advertising
Apple: iMessage
Nach dem Gesetz über digitale Märkte soll im Rahmen dieser Untersuchungen festgestellt werden, ob durch eine hinreichend stichhaltige Widerlegung durch die Unternehmen nachgewiesen wird, dass die betreffenden Dienste nicht benannt werden sollten. Die Untersuchung sollte innerhalb von fünf Monaten abgeschlossen werden.

Darüber hinaus hat die Kommission eine Marktuntersuchung eingeleitet, um weiter zu prüfen, ob Apples iPadOS zu den Torwächtern gezählt werden sollte, obwohl es die Schwellenwerte nicht erreicht. Diese Untersuchung im Rahmen des Gesetzes über digitale Märkte sollte innerhalb von höchstens 12 Monaten abgeschlossen werden.

Darüber hinaus kam die Kommission zu dem Schluss, dass Gmail, Outlook.com und Samsung Internet Browser zwar die Schwellenwerte des Gesetzes über digitale Märkte für die Einstufung ihrer Betreiber als Torwächter erreichen, Alphabet, Microsoft und Samsung jedoch hinreichend begründete Argumente dafür vorgelegt haben, dass diese Dienste nicht als Zugangstor für die jeweiligen zentralen Plattformdienste anzusehen sind. Daher beschloss die Kommission, Gmail, Outlook.com und Samsung Internet Browser nicht als zentrale Plattformdienste zu benennen. Dementsprechend wurde Samsung nicht als Torwächter in Bezug auf einen zentralen Plattformdienst eingestuft.

Nächste Schritte für benannte Torwächter
Nach ihrer Benennung haben die Torwächter nun sechs Monate Zeit, um sich an die vollständige Liste der Gebote und Verbote zu halten, die im Gesetz für digitale Märkte vorgesehen sind, sodass Endnutzern und gewerblichen Nutzern der Dienste des Torwächters eine größere Auswahl geboten und mehr Freiheit eingeräumt wird. Einige der Verpflichtungen gelten jedoch direkt ab dem Zeitpunkt der Benennung, z. B. die Verpflichtung, die Kommission über jeden geplanten Zusammenschluss zu unterrichten. Es liegt bei den benannten Unternehmen, die wirksame Einhaltung der Vorschriften zu gewährleisten und nachzuweisen. Zu diesem Zweck müssen sie innerhalb von sechs Monaten einen ausführlichen Compliance-Bericht vorlegen, in dem sie darlegen, wie sie die einzelnen Verpflichtungen des Gesetzes über digitale Märkte erfüllen.

Die Kommission wird die wirksame Umsetzung und Einhaltung dieser Verpflichtungen überwachen. Kommt ein Torwächter den im Gesetz über digitale Märkte festgelegten Verpflichtungen nicht nach, kann die Kommission Geldbußen bis zu einem Höchstbetrag von 10 % des weltweit erzielten Gesamtumsatzes des Unternehmens verhängen, der bei wiederholter Zuwiderhandlung auf bis zu 20 % hochgesetzt werden kann. Im Falle systematischer Zuwiderhandlungen ist die Kommission auch befugt, zusätzliche Abhilfemaßnahmen aufzuerlegen. Beispielsweise kann sie einen Torwächter dazu verpflichten, ein Unternehmen oder Teile davon zu verkaufen, oder sie kann dem Torwächter verbieten, zusätzliche Dienste zu erwerben, die mit der systematischen Nichteinhaltung in Verbindung stehen.

In Zukunft könnten weitere Unternehmen der Kommission auf der Grundlage ihrer Selbstbeurteilung Mitteilungen im Rahmen des Gesetzes über digitale Märkte in Bezug auf die einschlägigen Schwellenwerte übermitteln. In diesem Zusammenhang führt die Kommission konstruktive Gespräche mit allen relevanten Unternehmen.



Hintergrund
Das Gesetz über digitale Märkte soll verhindern, dass Torwächter den Unternehmen und Endnutzern unfaire Bedingungen aufzwingen, und so die Offenheit wichtiger digitaler Märkte gewährleisten.

Zusammen mit dem Gesetz über digitale Märkte schlug die Kommission im Dezember 2020 das Gesetz über digitale Dienste vor, um die negativen Folgen bestimmter Verhaltensweisen von Online-Plattformen, die als digitale Torwächter fungieren, für den EU-Binnenmarkt anzugehen.

Das Gesetz über digitale Märkte, das seit November 2022 in Kraft ist und seit Mai 2023 angewendet wird, zielt darauf ab, bestreitbare und faire Märkte im digitalen Sektor zu gewährleisten. Es reguliert die sogenannten Torwächter: große Online-Plattformen, die gewerblichen Nutzern als wichtiges Zugangstor zu Verbrauchern dienen und die aufgrund dieser Stellung die Macht haben, den Marktzugang in der digitalen Wirtschaft zu kanalisieren.

Unternehmen, die mindestens einen der zehn im Gesetz über digitale Märkte aufgeführten zentralen Plattformdienste betreiben, werden als Torwächter angesehen, wenn sie die nachstehenden Kriterien erfüllen. Zu diesen zentralen Plattformdiensten gehören Online-Vermittlungsdienste wie Dienste zum Herunterladen von Computer- oder Handy-Apps, Online-Suchmaschinen, soziale Netzwerke, bestimmte Kommunikationsdienste, Video-Sharing-Plattform-Dienste, virtuelle Assistenten, Webbrowser, Cloud-Computing-Dienste, Betriebssysteme, Online-Marktplätze und Online-Werbedienste. Ein Unternehmen kann dabei auch für mehrere zentrale Plattformdienste als Torwächter benannt werden.

Es gibt drei quantitative Hauptkriterien, die die Annahme begründen, dass ein Unternehmen ein Torwächter im Sinne des Gesetzes über digitale Märkte ist: i) Das Unternehmen erzielt einen bestimmten Jahresumsatz im Europäischen Wirtschaftsraum und erbringt in mindestens drei EU-Mitgliedstaaten einen zentralen Plattformdienst, ii) das Unternehmen betreibt einen zentralen Plattformdienst mit monatlich mehr als 45 Millionen aktiven Endnutzern, die in der EU niedergelassen sind oder sich dort aufhalten, und mit jährlich mehr als 10 000 aktiven gewerblichen Nutzern mit Niederlassung in der EU und iii) das Unternehmen hat das zweite Kriterium in den drei vorhergehenden Geschäftsjahren erfüllt.

Im Gesetz über digitale Märkte ist eine Reihe spezifischer Verpflichtungen festgelegt, die Torwächter einhalten müssen, und bestimmte Verhaltensweisen werden ihnen untersagt mithilfe einer Liste von Geboten und Verboten.

Mit dem Gesetz über digitale Märkte wird der Kommission auch die Befugnis übertragen, Marktuntersuchungen durchzuführen, um i) Unternehmen aus qualitativen Gründen als Torwächter zu benennen, ii) die Verpflichtungen für Torwächter erforderlichenfalls zu aktualisieren, iii) Abhilfemaßnahmen zu konzipieren, mit denen gegen systematische Zuwiderhandlungen gegen die Vorschriften des Gesetzes über digitale Märkte vorgegangen wird.


Weitere Informationen finden Sie hier:

EuGH-Generalanwalt: Google, Meta Platforms und Tik Tok dürfen zusätzliche Verpflichtungen in einem anderen Mitgliedstaat als dem ihres Sitzes nur im konkreten Einzelfall auferlegt werden

EuGH-Generalanwalt
Schlussanträge vom 08.06.2023
C-376/22
Google Ireland Limited, Tik Tok Technology Limited, Meta Platforms Ireland Limited


EuGH-Generalanwalt kommt in seinen Schlussanträge zu dem Ergebniss, dass Anbieter wie Google, Meta Platforms und Tik Tok zusätzliche Verpflichtungen in einem anderen Mitgliedstaat als dem ihres Sitzes nur im konkreten Einzelfall auferlegt werden dürfen.

Die Pressemitteilung des EuGH:
Plattformen wie Google, Meta Platforms und Tik Tok dürfen zusätzliche Verpflichtungen in einem anderen Mitgliedstaat als dem ihres Sitzes nur in Bezug auf einen konkreten Einzelfall ergriffene Maßnahmen auferlegt werden

Das Unionsrecht verwehrt es, den freien Verkehr von Diensten der Informationsgesellschaft aus anderen Mitgliedstaaten durch gesetzliche Maßnahmen generell-abstrakter Natur zu beschränken.

Google, Meta Platforms und Tik Tok wenden sich vor den österreichischen Gerichten gegen die von der österreichischen Regulierungsbehörde für Kommunikation (KommAustria) getroffene Feststellung, dass das österreichische Bundesgesetz aus dem Jahr 2020 über Maßnahmen zum Schutz der Nutzer auf Kommunikationsplattformen (KoPl-G 1) auf sie anwendbar sei, obwohl sie in einem anderen Mitgliedstaat, nämlich Irland, niedergelassen sind.

Mit diesem Gesetz soll die Verantwortlichkeit von Kommunikationsplattformen gestärkt werden. Im Einzelnen verpflichtet es allgemein die Betreiber von „Kommunikationsplattformen“, die in Österreich oder im Ausland niedergelassen sind, ein Melde- und Überprüfungssystem für angeblich rechtswidrige Inhalte einzurichten. Außerdem sind diese Betreiber verpflichtet, regelmäßig Berichte über die Behandlung solcher Meldungen zu erstellen. Die im KoPl-G festgelegten Verpflichtungen erfordern nicht den vorherigen Erlass eines individuellkonkreten Rechtsakts. Des Weiteren sieht das Gesetz Geldstrafen bei Verstößen gegen die gesetzlichen Verpflichtungen vor.

Google, Meta Platforms und Tik Tok machen geltend, dass das KoPl-G mit der Richtlinie über den elektronischen Geschäftsverkehr2, insbesondere mit dem Herkunftslandprinzip, unvereinbar sei. Der österreichische Verwaltungsgerichtshof hat dem Gerichtshof hierzu Fragen vorgelegt. Er möchte wissen, ob ein Mitgliedstaat den freien Verkehr von Diensten der Informationsgesellschaft aus anderen Mitgliedstaaten dadurch beschränken darf, dass er nationale Maßnahmen generell-abstrakter Natur ergreift, die sich auf eine allgemein umschriebene Kategorie bestimmter Dienste der Informationsgesellschaft – nämlich „Kommunikationsplattformen“ – beziehen, ohne dass diese Maßnahmen in Bezug auf einen konkreten Einzelfall ergriffen werden.

In seinen Schlussanträgen vom heutigen Tag weist Generalanwalt Maciej Szpunar darauf hin, dass seine Analyse auf der Prämisse beruht, dass es sich bei den von den drei Unternehmen in Österreich erbrachten Dienstleistungen um Dienste der Informationsgesellschaft handelt, wie dies für den österreichischen Verwaltungsgerichtshof feststeht.

Der Generalanwalt stellt fest, dass die Richtlinie über den elektronischen Geschäftsverkehr es im koordinierten Bereich den Mitgliedstaaten verbietet, den freien Verkehr von Diensten der Informationsgesellschaft aus einem anderen Mitgliedstaat einzuschränken. Vorbehaltlich von Ausnahmen lässt diese Richtlinie es nicht zu, dass der Anbieter eines Dienstes des elektronischen Geschäftsverkehrs strengeren Anforderungen unterliegt, als sie das in seinem Herkunftsmitgliedstaat geltende Recht vorsieht.

Zu den von der Richtlinie vorgesehenen Ausnahmen vom Herkunftslandprinzip wiederholt der Generalanwalt die Ausführungen in seinen Schlussanträgen in der Rechtssache Airbnb Ireland. Seiner Ansicht nach darf ein anderer als der Herkunftsmitgliedstaat Ausnahmen vom freien Verkehr von Diensten der Informationsgesellschaft nur durch auf den konkreten Einzelfall bezogene Maßnahmen vorsehen, und zwar nach vorheriger Mitteilung an die Kommission und Aufforderung an den Herkunftsmitgliedstaat, Maßnahmen im Bereich der Dienste der Informationsgesellschaft zu ergreifen, was vorliegend nicht geschehen ist.

Ginge man davon aus, dass eine generell-abstrakte Regelung, die für alle Anbieter einer Kategorie von Diensten der Informationsgesellschaft gilt, eine „Maßnahme“ darstellt, liefe dies im Übrigen darauf hinaus, die Fragmentierung des Binnenmarkts durch nationale Regelungen zuzulassen. Die Anwendung unterschiedlicher Gesetze auf einen Anbieter zuzulassen, liefe außerdem dem von der Richtlinie verfolgten Ziel zuwider, die rechtlichen Hemmnisse für das reibungslose Funktionieren des Binnenmarkts zu beseitigen.

Daher ist der Generalanwalt der Auffassung, dass diese Richtlinie es verwehrt, dass ein Mitgliedstaat unter diesen Umständen und in derartiger Weise den freien Verkehr von Diensten der Informationsgesellschaft aus einem anderen Mitgliedstaat beschränkt.

Die vollständigen Schlussanträge finden Sie hier: