Skip to content

EU-Kommission: Nach vorläufiger Feststellung verstößt die Kontoverifizierung durch X / Twitter allein durch Abschluss eines kostenpflichtigen Abos gegen den Digital Services Act (DSA)

Die EU-Kommission kommt nach vorläufiger Einschätzung zu dem Ergebnis, dass die Kontoverifizierung durch X / Twitter allein durch Abschluss eines kostenpflichtigen Abos gegen den Digital Services Act (DSA) verstößt.

Die Pressemitteilung der EU-Kommission:
Kommission übermittelt X vorläufige Feststellungen wegen Verstoßes gegen das Gesetz über digitale Dienste

Die Kommission hat X heute von ihrer vorläufigen Auffassung in Kenntnis gesetzt, dass sie in Bereichen im Zusammenhang mit Dark Patters, Transparenz der Werbung und Datenzugang für Forscher gegen das Gesetz über digitale Dienste verstößt.

Transparenz und Rechenschaftspflicht in Bezug auf die Moderation von Inhalten und Werbung stehen im Mittelpunkt des Gesetzes über digitale Dienste. Auf der Grundlage einer eingehenden Untersuchung, die unter anderem die Analyse interner Unternehmensunterlagen, Befragungen von Sachverständigen und die Zusammenarbeit mit den nationalen Koordinatoren für digitale Dienste umfasste, hat die Kommission in drei Fällen vorläufig festgestellt, dass die Vorschriften nicht eingehalten wurden:

Erstens gestaltet und betreibt X seine Schnittstelle für die „verifizierten Konten“ mit dem „Blue Checkmark“ in einer Weise, die nicht der Branchenpraxis entspricht und die Nutzer täuscht. Da jedermann einen solchen „überprüften“ Status abonnieren kann, beeinträchtigter die Fähigkeit der Nutzer, freie und fundierte Entscheidungen über die Authentizität der Konten und die Inhalte, mit denen sie interagieren, zu treffen. Es gibt Belege für motivierte böswillige Akteure, die das „verifizierte Konto“ missbrauchen, um Nutzer zu täuschen.

Zweitens hält X nicht die erforderliche Transparenz in Bezug auf Werbung ein, da es kein durchsuchbares und zuverlässiges Werbearchiv bietet, sondern Gestaltungsmerkmale und Zugangsbarrieren einrichtet, die das Repository für seine Transparenzzwecke gegenüber den Nutzern ungeeignet machen. Insbesondere ermöglicht das Design nicht die erforderliche Überwachung und Erforschung neu auftretender Risiken, die sich aus dem Online-Vertrieb von Werbung ergeben.

Drittens gewährt X Forschern keinen Zugang zu seinen öffentlichen Daten gemäß den im Gesetz über digitale Dienste festgelegten Bedingungen. Insbesondere untersagt X förderfähigen Forschern, unabhängig auf seine öffentlichen Daten zuzugreifen, z. B. durch Verschrotten, wie in seinen Nutzungsbedingungen angegeben. Darüber hinaus scheint das Verfahren von X, förderfähigen Forschern Zugang zu seiner Anwendungsprogrammierschnittstelle (API) zu gewähren, Forscher von der Durchführung ihrer Forschungsprojekte abzuhalten oder ihnen keine andere Wahl zu lassen, als unverhältnismäßig hohe Gebühren zu zahlen.

Mit der Übermittlung der vorläufigen Feststellungen teilt die Kommission X ihren vorläufigen Standpunkt mit, dass sie gegen das Gesetz über digitale Dienste verstößt. Dies greift dem Ergebnis der Untersuchung nicht vor, da X nun die Möglichkeit hat, seine Verteidigungsrechte auszuüben, indem sie die Unterlagen in der Untersuchungsakte der Kommission prüft und schriftlich auf die vorläufigen Feststellungen der Kommission antwortet. Parallel dazu wird das Europäische Gremium für digitale Dienste konsultiert.

Sollte sich die vorläufige Auffassung der Kommission letztlich bestätigen, würde die Kommission einen Verstoßbeschluss erlassen, in dem sie feststellt, dass X gegen die Artikel 25, 39 und 40 Absatz 12 des Gesetzes über digitale Dienste verstößt. Eine solche Entscheidung könnte zu Geldbußen von bis zu 6 % des weltweiten Jahresumsatzes des Anbieters führen und den Anbieter anweisen, Maßnahmen zu ergreifen, um den Verstoß zu beheben. Eine Entscheidung wegen Nichteinhaltung kann auch einen erweiterten Überwachungszeitraum auslösen, um die Einhaltung der Maßnahmen sicherzustellen, die der Anbieter zu ergreifen beabsichtigt, um den Verstoß zu beheben. Die Kommission kann auch Zwangsgelder verhängen, um eine Plattform zur Einhaltung der Vorschriften zu zwingen.

Hintergrund
X, vormals Twitter, wurde am 25. April 2023 im Rahmen des EU-Gesetzes über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem sie erklärt hatte, monatlich mehr als 45 Millionen aktive Nutzer in der EU zu erreichen.

Am 18. Dezember 2023 leitete die Kommission ein förmliches Verfahren ein, um zu prüfen, ob X möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit der Verbreitung illegaler Inhalte und der Wirksamkeit der zur Bekämpfung der Informationsmanipulation ergriffenen Maßnahmen zusammenhängen, für die die Untersuchung fortgesetzt wird, sowie Dark Patterns, Transparenz der Werbung und Datenzugang für Forscher, die Gegenstand der heute angenommenen vorläufigen Feststellungen sind.

Die Kommission hat auch ein Whistleblower-Tool eingerichtet, das es Mitarbeitern und anderen Personen mit Wissen ermöglicht, sich anonym mit der Kommission in Verbindung zu setzen, um zur Überwachung der Einhaltung durch die Kommission durch benannte sehr große Online-Plattformen/VLOSE beizutragen.

Darüber hinaus hat die Kommission im Februar und April 2024 ein förmliches Verfahren gegen TikTok, AliExpress im März 2024 und Meta im April und Mai 2024 eingeleitet.



EU-Kommission: XNXX ist eine sehr große Onlineplattformen (VLOP) im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste)

Die EU-Kommission hat entschieden, dass XNXX eine sehr große Onlineplattformen (VLOP) im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) ist

Die Pressemitteilung der EU-Kommission:
Kommission benennt nicht jugendfreie Plattform XNXX als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste

Die Kommission hat XNXX heute offiziell als sehr große Online-Plattform (VLOP) gemäß dem Gesetz über digitale Dienste benannt.

XNXX ist eine Plattform für nicht jugendfreie Inhalte mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Anzahl von Nutzern, die XNXX der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als sehr große Online-Plattform. Nach der heutigen Benennung als sehr große Online-Plattform muss XNXX nun innerhalb von vier Monaten nach seiner Benachrichtigung (d. h. ab Mitte November 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten. Zu den Verpflichtungen gehören die Ergreifung besonderer Maßnahmen zur Stärkung und zum Schutz ihrer Online-Nutzer. So müssen sie den Zugang Minderjähriger zu pornografischen Online-Inhalten verhindern (auch mit Instrumenten zur Altersüberprüfung), Forschern öffentlich zugängliche Daten zur Verfügung stellen und ein Archiv der Werbeanzeigen veröffentlichen.

Darüber hinaus muss XNXX alle systemischen Risiken, die sich aus seinen Diensten ergeben, gründlich bewerten und mindern, z. B. Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte oder negativen Auswirkungen auf das geistige und körperliche Wohlbefinden der Nutzer. Den ersten Risikobewertungsbericht muss die benannte Plattform bis Mitte November 2024 vorlegen.

Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich XNXX, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Dazu gehören z. B. die Bereitstellung benutzerfreundlicher Mechanismen zur Meldung illegaler Inhalte, die eindeutige Kennzeichnung von Werbung in ihren Diensten und die Veröffentlichung jährlicher Transparenzberichte.

Nächste Schritte
Nach der Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch XNXX in Zusammenarbeit mit dem tschechischen Koordinator für digitale Dienste zu überwachen.

Hintergrund
Diese Benennung verdeutlicht, dass die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt.

Die Kommission hatte im Dezember 2023 bereits drei weitere Plattformen für nicht jugendfreie Inhalte benannt, nämlich Pornhub, Stripchat und XVideos. Mit der heutigen Benennung erhöht sich die Zahl der gemäß dem Gesetz über digitale Dienste als solche benannten sehr großen Online-Plattformen und -Suchmaschinen auf insgesamt 25.

Im Rahmen ihrer Aufsichts- und Durchsetzungsaufgaben überwacht die Kommission die Einhaltung des Gesetzes über digitale Dienste durch sehr große Online-Plattformen und kann per Auskunftsverlangen von den Plattformen weitere detaillierte Informationen darüber einholen, wie diese ihren gesetzlichen Verpflichtungen nachkommen. Am 13. Juni 2024 richtete die Kommission solche Auskunftsverlangen an Pornhub, Stripchat und XVideos. Darin forderte sie die Plattformen auf, ausführlichere Informationen über ihre Maßnahmen gegen die Verstärkung illegaler Inhalte und geschlechtsspezifischer Gewalt und über ihre Alterskontrollvorkehrungen zu geben.

Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste teilen sich die Kommission und die Koordinatoren für digitale Dienste, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.

EU-Kommission: TEMU ist eine sehr große Online-Plattform im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat entschieden, dass TEMU eine sehr große Online-Plattform im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste ist.

Die Pressemitteilung der EU-Kommission:
Kommission benennt Temu als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste

Die Kommission hat Temu heute offiziell als sehr große Online-Plattform (VLOP) im Rahmen des Gesetzes über digitale Dienste (DSA) benannt.

Temu ist ein Online-Marktplatz mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Nutzernummer, die Temu der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als VLOP.

Nach der heutigen Benennung als VLOP muss Temu innerhalb von vier Monaten nach seiner Mitteilung (d. h. bis Ende September 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten, wie etwa die Verpflichtung, alle systemischen Risiken, die sich aus seinen Dienstleistungen ergeben, einschließlich der Listung und des Verkaufs von gefälschten Waren, unsicheren oder illegalen Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen, ordnungsgemäß zu bewerten und zu mindern.

Zu diesen zusätzlichen Verpflichtungen gehören insbesondere:

Sorgfältigere Überwachung illegaler Produkte

-Temu muss die spezifischen systemischen Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte und Produkte sowie aus der Konzeption oder dem Funktionieren seines Dienstes und der damit verbundenen Systeme sorgfältig analysieren. Die Risikobewertungsberichte sind der Kommission vier Monate nach der Mitteilung der förmlichen Benennung und danach ein Jahr vorzulegen.

- Temu muss Risikominderungsmaßnahmen ergreifen, um Risiken zu begegnen, z. B. durch die Aufnahme und den Verkauf von nachgeahmten Waren, unsicheren Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen. Diese Maßnahmen können die Anpassung der Nutzungsbedingungen, die Verbesserung der Gestaltung der Benutzerschnittstellen im Hinblick auf eine bessere Meldung und Aufdeckung verdächtiger Listen, die Verbesserung der Moderationsverfahren zur raschen Entfernung illegaler Gegenstände und die Verfeinerung der Algorithmen umfassen, um die Förderung und den Verkauf verbotener Waren zu verhindern.

- Temu muss seine internen Prozesse, Ressourcen, Tests, Dokumentation und Überwachung aller Tätigkeiten im Zusammenhang mit der Erkennung systemischer Risiken verstärken.

Verstärkte Verbraucherschutzmaßnahmen

- In den jährlichen Risikobewertungsberichten von Temu müssen insbesondere mögliche negative Auswirkungen auf die Gesundheit und Sicherheit der Verbraucher bewertet werden, wobei der Schwerpunkt auf dem körperlichen und geistigen Wohlbefinden minderjähriger Nutzer liegen sollte.

- Temu ist verpflichtet, seine Plattform, einschließlich Benutzerschnittstellen, Empfehlungsalgorithmen und Nutzungsbedingungen, zu strukturieren, um Risiken für die Sicherheit und das Wohlbefinden der Verbraucher zu mindern und zu verhindern. Es müssen Maßnahmen ergriffen werden, um die Verbraucher vor dem Kauf unsicherer oder illegaler Waren zu schützen, wobei ein besonderer Schwerpunkt darauf liegen sollte, den Verkauf und Vertrieb von Produkten, die für Minderjährige schädlich sein könnten, zu verhindern. Dazu gehört auch die Einführung robuster Alterssicherungssysteme, um den Kauf altersbegrenzter Güter zu beschränken.

Mehr Transparenz und Rechenschaftspflicht

- Temu muss sicherstellen, dass seine Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste jedes Jahr extern und unabhängig geprüft werden.

-Temu muss Repository aller Anzeigen veröffentlichen, die auf seiner Schnittstelle angezeigt werden.

- Temu muss Forschern, einschließlich zugelassener Forscher, die von den Koordinatoren für digitale Dienste benannt wurden, Zugang zu öffentlich zugänglichen Daten gewähren.

- Temu muss die Transparenzanforderungen erfüllen, einschließlich der Veröffentlichung von Transparenzberichten über Entscheidungen zur Moderation von Inhalten und des Risikomanagements alle sechs Monate zusätzlich zu den Berichten über die Systemrisiken und den Prüfungsergebnissen einmal jährlich.

- Temu muss eine Compliance-Funktion benennen und jedes Jahr einer externen unabhängigen Prüfung unterzogen werden.

Allgemeine Anwendbarkeit des Gesetzes über digitale Dienste auf Online-Plattformen und -Marktplätze

Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich Temu, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Diese allgemeinen Bestimmungen umfassen die Verpflichtung von Online-Marktplätzen,

- Gewährleistung der Rückverfolgbarkeit von Händlern auf ihren Plattformen;
- Ihre Schnittstelle so zu gestalten, dass den Unternehmern die Einhaltung ihrer rechtlichen Verpflichtungen nach dem EU-Recht erleichtert wird;
- Die Verbraucher über den Kauf eines illegalen Produkts informieren, sobald sie von der Illegalität des Produkts Kenntnis erlangen.


Seit dem 17. Februar 2024 sind alle Online-Plattformen, einschließlich Marktplätze, nach dem Gesetz über digitale Dienste außerdem verpflichtet,

- Bereitstellung benutzerfreundlicher Mechanismen, die es Nutzern oder Stellen ermöglichen, illegale Inhalte zu melden;
- Der Behandlung von Meldungen, die von sogenannten „vertrauenswürdigen Hinweisgebern“ übermittelt werden, Vorrang einzuräumen;
- Den Nutzern Begründungen zur Verfügung zu stellen, wenn ihre Inhalte eingeschränkt oder entfernt werden;
- Bereitstellung eines internen Beschwerdemanagementsystems für Nutzer, um Entscheidungen über die Moderation von Inhalten anzufechten;
- Ihre Systeme neu gestalten, um ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu gewährleisten;
- Sicherstellen, dass ihre Schnittstellen nicht so gestaltet sind, dass die Nutzer getäuscht oder manipuliert werden;
- Werbung auf ihren Schnittstellen deutlich kennzeichnen;
- Die Anzeige gezielter Werbung auf der Grundlage von Profilen sensibler Daten (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung) oder die sich an Minderjährige richtet, einzustellen;
- Klare Bedingungen haben und bei ihrer Anwendung sorgfältig, objektiv und verhältnismäßig handeln;
- Sie veröffentlichen einmal jährlich Transparenzberichte über ihre Verfahren zur Moderation von Inhalten.

Nächste Schritte

Nach ihrer Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch Temu in Zusammenarbeit mit dem irischen Koordinator für digitale Dienste zu überwachen.

Die Kommissionsdienststellen werden die Anwendung der Vorschriften und Verpflichtungen des Gesetzes über digitale Dienste durch die Plattform sorgfältig überwachen, insbesondere in Bezug auf Maßnahmen zur Gewährleistung des Verbraucherschutzes und zur Bekämpfung der Verbreitung illegaler Produkte. Die Kommissionsdienststellen sind bereit, eng mit Temu zusammenzuarbeiten, um sicherzustellen, dass diese angemessen angegangen werden.

Hintergrund

Diese Bezeichnung veranschaulicht, wie die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt. Die Kommission hat nun 24 sehr große Online-Plattformen und Suchmaschinen im Rahmen des Gesetzes über digitale Dienste benannt.

Am 25. April 2023 benannte die Kommission die ersten 19 sehr großen Betriebsplattformen (VLOP) und sehr große Online-Suchmaschinen (VLOSE). Ab Ende August mussten diese sehr großen Online-Plattformen und sehr großen Online-Plattformen die zusätzlichen Verpflichtungen gemäß Abschnitt 5 des Gesetzes über digitale Dienste erfüllen. Am 20. Dezember 2023 wurden drei weitere sehr große Online -Plattformen benannt. Am 26. April 2024 benannte die Kommission Shein als VLOP, für das die zusätzliche Verpflichtung im August 2024 verbindlich wird.

Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste wird von der Kommission und den Koordinatoren für digitale Dienste geteilt, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.

EuGH-Vizepräsident: Eilantrag von Amazon gegen Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt

Vizepräsidenten des EuGH
Beschluss vom 27.03.2024
C-639/23 P(R)
EU-Kommission / Amazon Services Europe


Der EuGH-Vizepräsident hat den Eilantrag von Amazon gegen die Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt.

Die Pressemitteilung des EuGH:
Online-Werbung: Der Antrag von Amazon auf Aussetzung ihrer Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, wird zurückgewiesen

Amazon Services Europe gehört zum Amazon-Konzern. Ihre geschäftlichen Aktivitäten umfassen den OnlineEinzelhandel und weitere Dienstleistungen wie Cloud Computing und Online-Streaming. Sie erbringt OnlineMarktplatzdienste an Drittverkäufer und ermöglicht ihnen, Waren im Amazon Store zum Kauf anzubieten.

Mit Beschluss vom 23. April 20231 , der gemäß der Verordnung über einen Binnenmarkt für digitale Dienste erlassen wurde, benannte die Kommission Amazon Store als sehr große Online-Plattform. Dies bedeutet u. a., dass Amazon Store ein Werbearchiv mit detaillierten Informationen über ihre Online-Werbung öffentlich zugänglich machen muss. Amazon beantragte beim Gericht der Europäischen Union die Nichtigerklärung dieses Beschlusses. Sie stellte außerdem einen Antrag auf vorläufigen Rechtsschutz. Mit Beschluss vom 27. September 20234 ordnete der Präsident des Gerichts die Aussetzung des Beschlusses der Kommission an, soweit Amazon Store damit verpflichtet wird, das Werbearchiv öffentlich zugänglich zu machen. Die Kommission hat gegen den Beschluss des Präsidenten des Gerichts beim Gerichtshof ein Rechtsmittel eingelegt.

Mit seinem heutigen Beschluss hebt der Vizepräsident des Gerichtshofs den Teil des Beschlusses des Präsidenten des Gerichts auf, mit dem der Beschluss der Kommission in Bezug auf das Werbearchiv ausgesetzt wird. Er stellt fest, dass der Kommission unter Verstoß gegen den Grundsatz eines kontradiktorischen Verfahrens die Möglichkeit vorenthalten wurde, zu den Argumenten, die von Amazon im Verfahren vor dem Gericht vorgetragen wurden, Stellung zu nehmen. Da die Kommission vor dem Gerichtshof die Argumente vorgetragen hat, mit denen sie dem Vorbringen von Amazon vor dem Gericht entgegentreten wollte, entscheidet der Vizepräsident des Gerichtshofs den Rechtsstreit endgültig und weist den Antrag auf vorläufigen Rechtsschutz zurück.

Der Vizepräsident des Gerichtshofs ist der Ansicht, dass das Vorbringen von Amazon, die vom Unionsgesetzgeber eingeführte Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, schränke ihre Grundrechte auf Achtung des Privatlebens und auf unternehmerische Freiheit rechtswidrig ein, dem ersten Anschein nach nicht als unerheblich und außerdem völlig haltlos angesehen werden kann.

Zudem würde Amazon, wenn keine Aussetzung erfolgt, vor einem eventuell ergehenden Urteil, mit dem der Beschluss der Kommission für nichtig erklärt wird, wahrscheinlich einen schwerwiegenden und nicht wiedergutzumachenden Schaden erleiden.

Diese Feststellungen sind jedoch für sich allein genommen nicht entscheidend. Es ist nämlich zu prüfen, ob die Abwägung sämtlicher beteiligter Interessen die Versagung der Aussetzung rechtfertigen kann. Hierzu stellt der Vizepräsident des Gerichtshofs fest, dass Amazon in dem Fall, dass die Aussetzung nicht gewährt wird, weiterhin ein Interesse an der Nichtigerklärung des Beschlusses der Kommission hätte. Außerdem ist nicht dargetan, dass in diesem Fall die Existenz oder die langfristige Entwicklung von Amazon auf dem Spiel stünden. Darüber hinaus würde die Aussetzung bedeuten, das vollständige Erreichen der Ziele der Verordnung über einen Binnenmarkt für digitale Dienste möglicherweise über mehrere Jahre hinauszuschieben und damit möglicherweise ein OnlineUmfeld bestehen oder sich entwickeln zu lassen, das eine Bedrohung für die Grundrechte darstellt; der Unionsgesetzgeber war aber der Auffassung, dass die sehr großen Online-Plattformen eine wichtige Rolle in diesem Umfeld spielen. Die vom Unionsgesetzgeber vertretenen Interessen gehen im vorliegenden Fall den materiellen Interessen von Amazon vor, weshalb die Abwägung zugunsten der Zurückweisung des Aussetzungsantrags ausfällt.


Den Volltext des Beschlusses finden Sie hier:

EU-Kommission: Pornhub, Stripchat und XVideos sind sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste)

Die EU-Kommission hat entschieden, dass Pornhub, Stripchat und XVideos sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) sind.

Die Pressemitteilung des EU-Kommission:
Today, the Commission adopted a second set of designation decisions under the Digital Services Act, designating 3 Very Large Online Platforms (VLOPs). These are:

Pornhub
Stripchat
XVideos
The designation is the result of Commission investigations concluding that the three services fulfil the threshold of 45 million average monthly users in the EU.

Today's designations follow a first set of designation decisions of 19 Very Large Online Platforms and Search Engines on 25 April 2023, of which the Commission published the non-confidential versions today.

General date of applicability of the DSA
With the exception of small and microenterprises, all online platforms and search engines will need to comply with the general DSA obligations by 17 February 2024. Among other provisions, they will need to:

Provide user-friendly mechanisms to allow users or entities to notify illegal content;
Prioritise the treatment of notices submitted by so-called “trusted flaggers”;
Provide statements of reasons to users when their content is restricted or removed;
Provide an internal complaint-handling system for users to appeal content moderation decisions;
Promptly inform law enforcement authorities if they become aware of any information giving rise to a suspicion that a criminal offence involving a threat to the life or safety of a person has taken place, is taking place or is likely to take place, including in the case of child sexual abuse;
Redesign their systems to ensure a high level of privacy, security, and safety of minors;
Ensure that their interfaces are not designed in a way that deceives or manipulates the users;
Clearly label advertisement on their interfaces;
Stop presenting targeted advertisement based on profiling of sensitive data (such as ethnic origin, political opinions or sexual orientation), or targeted at minors;
Have clear terms and conditions and act in a diligent, objective and proportionate manner when applying them;
Publish once a year transparency reports on their content moderation processes.
More stringent rules for designated VLOPs
In addition to the general provisions in the DSA, within four months of their designation as VLOPs, Pornhub, XVideos and Stripchat will also have to adopt specific measures to empower and protect users online, including minors, and duly assess and mitigate any systemic risks stemming from their services. These additional, specific obligations include:

More diligent content moderation:

VLOPs need to analyse their specific systemic risks with regard to the dissemination of illegal content and of content threatening fundamental rights. Risk assessments reports will have to be provided to the Commission 4 months after the notification of the formal designation and made public at the latest a year later;
VLOPs must put in place mitigation measures to address risks linked to the dissemination of illegal content online, such as child sexual abuse material, and content affecting fundamental rights, such as the right to human dignity and private life in case of non-consensual sharing of intimate material online or deepfake pornography. These measures can include adapting their terms and conditions, interfaces, moderation processes, or algorithms, among others;
VLOPs must reinforce their internal processes, resources, testing, documentation, and supervision of any of their activities linked to the detection of systemic risks.
Strong protection of minors:

VLOPs must design their services, including their interfaces, recommender systems, and terms and conditions, to address and prevent risks to the well-being of children. Mitigating measures to protect the rights of the child, and prevent minors from accessing pornographic content online, including with age verification tools;
Risk assessment reports will have in particular to detail any negative effect on the protection of the mental and physical health of minors.
More transparency and accountability:

VLOPs need to ensure that their risk assessments and their compliance with all the DSA obligations are externally and independently audited;
VLOPs need to publish repositories of all the ads served on their interface;
VLOPs will have to give access to publicly available data to researchers, including to vetted researchers designated by Digital Services Coordinators;
VLOPs need to comply with additional transparency requirements, including the publication of transparency reports on content moderation decisions and risk management every six months, in addition to reports on their systemic risks and audit results once a year;
VLOPs need to appoint a compliance function and be subject to an external independent audit every year.
Next Steps
Following their designation as VLOPs, the Commission will be responsible for supervising Pornhub, Stripchat and XVideos, in cooperation with the Digital Services Coordinators of the Member States of establishment.

The Commission services will carefully monitor the compliance with the DSA obligations by these platforms, especially concerning the measures to protect minors from harmful content and to address the dissemination of illegal content. The Commission services are ready to closely engage with the newly designated platforms to ensure these are properly addressed.

Background
On 25 April 2023, the Commission designated the first 19 Very Large Online Platforms and Search Engines. Starting from the end of August, these VLOPs and VLOSEs must comply with the additional obligations under the DSA. By 17 February 2024, all platforms, with the exception of small and microenterprises, will have to comply with the general obligations introduced by the DSA.

The supervision and enforcement of the DSA will be shared between the Commission and Digital Services Coordinators, which will be designated by Member States by 17 February 2024.



EU-Kommission: Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet

Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.

Die Pressemitteilung des EU-Kommission:
The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.

On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.

The proceedings will focus on the following areas:

The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.

The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.

The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.

A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.

If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.

These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.

Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.

The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.

The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.

The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).

Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.

As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:

Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.

Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.

Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data
.



EuG-Präsident: Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt

EuG-Präsident
Anordnung vom 27.09.2023
T‑367/23 R
Amazon Services Europe Sàrl ./. EU-Kommission


Der EuG-Präsident hat angeordnet, dass die Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt wird. Über die Rechtsmäßigkeit der Einordnung muss der EuG noch entscheiden.

Tenor der Entscheidung:
1. Operation of the decision of the European Commission of 25 April 2023, with reference C(2023) 2746 final, designating Amazon Store as a very large online platform in accordance with Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act), is suspended in so far as, by virtue of that decision, Amazon Store will be required to make an advertisement repository publicly available, in accordance with Article 39 of that regulation, without prejudice to the requirement for the applicant to compile the advertisement repository.

2. The application for interim measures is dismissed as to the remainder.

3. The costs are reserved.

Den Volltext der Entscheidung finden Sie hier:


EU-Kommission: Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.

Die Pressemitteilung der EU-Kommission vom 25.04.2023:

Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:

Sehr große Online-Plattformen:

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:

Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.

Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:

Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.

Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:

Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.

Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:

Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.

Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.

Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.

Ein höheres Maß an Transparenz und Rechenschaftspflicht:

Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.

Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.

Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.

Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.

Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.