Die EU-Kommission kommt nach vorläufiger Einschätzung zu dem Ergebnis, dass die Kontoverifizierung durch X / Twitter allein durch Abschluss eines kostenpflichtigen Abos gegen den Digital Services Act (DSA) verstößt.
Die Pressemitteilung der EU-Kommission: Kommission übermittelt X vorläufige Feststellungen wegen Verstoßes gegen das Gesetz über digitale Dienste
Die Kommission hat X heute von ihrer vorläufigen Auffassung in Kenntnis gesetzt, dass sie in Bereichen im Zusammenhang mit Dark Patters, Transparenz der Werbung und Datenzugang für Forscher gegen das Gesetz über digitale Dienste verstößt.
Transparenz und Rechenschaftspflicht in Bezug auf die Moderation von Inhalten und Werbung stehen im Mittelpunkt des Gesetzes über digitale Dienste. Auf der Grundlage einer eingehenden Untersuchung, die unter anderem die Analyse interner Unternehmensunterlagen, Befragungen von Sachverständigen und die Zusammenarbeit mit den nationalen Koordinatoren für digitale Dienste umfasste, hat die Kommission in drei Fällen vorläufig festgestellt, dass die Vorschriften nicht eingehalten wurden:
Erstens gestaltet und betreibt X seine Schnittstelle für die „verifizierten Konten“ mit dem „Blue Checkmark“ in einer Weise, die nicht der Branchenpraxis entspricht und die Nutzer täuscht. Da jedermann einen solchen „überprüften“ Status abonnieren kann, beeinträchtigter die Fähigkeit der Nutzer, freie und fundierte Entscheidungen über die Authentizität der Konten und die Inhalte, mit denen sie interagieren, zu treffen. Es gibt Belege für motivierte böswillige Akteure, die das „verifizierte Konto“ missbrauchen, um Nutzer zu täuschen.
Zweitens hält X nicht die erforderliche Transparenz in Bezug auf Werbung ein, da es kein durchsuchbares und zuverlässiges Werbearchiv bietet, sondern Gestaltungsmerkmale und Zugangsbarrieren einrichtet, die das Repository für seine Transparenzzwecke gegenüber den Nutzern ungeeignet machen. Insbesondere ermöglicht das Design nicht die erforderliche Überwachung und Erforschung neu auftretender Risiken, die sich aus dem Online-Vertrieb von Werbung ergeben.
Drittens gewährt X Forschern keinen Zugang zu seinen öffentlichen Daten gemäß den im Gesetz über digitale Dienste festgelegten Bedingungen. Insbesondere untersagt X förderfähigen Forschern, unabhängig auf seine öffentlichen Daten zuzugreifen, z. B. durch Verschrotten, wie in seinen Nutzungsbedingungen angegeben. Darüber hinaus scheint das Verfahren von X, förderfähigen Forschern Zugang zu seiner Anwendungsprogrammierschnittstelle (API) zu gewähren, Forscher von der Durchführung ihrer Forschungsprojekte abzuhalten oder ihnen keine andere Wahl zu lassen, als unverhältnismäßig hohe Gebühren zu zahlen.
Mit der Übermittlung der vorläufigen Feststellungen teilt die Kommission X ihren vorläufigen Standpunkt mit, dass sie gegen das Gesetz über digitale Dienste verstößt. Dies greift dem Ergebnis der Untersuchung nicht vor, da X nun die Möglichkeit hat, seine Verteidigungsrechte auszuüben, indem sie die Unterlagen in der Untersuchungsakte der Kommission prüft und schriftlich auf die vorläufigen Feststellungen der Kommission antwortet. Parallel dazu wird das Europäische Gremium für digitale Dienste konsultiert.
Sollte sich die vorläufige Auffassung der Kommission letztlich bestätigen, würde die Kommission einen Verstoßbeschluss erlassen, in dem sie feststellt, dass X gegen die Artikel 25, 39 und 40 Absatz 12 des Gesetzes über digitale Dienste verstößt. Eine solche Entscheidung könnte zu Geldbußen von bis zu 6 % des weltweiten Jahresumsatzes des Anbieters führen und den Anbieter anweisen, Maßnahmen zu ergreifen, um den Verstoß zu beheben. Eine Entscheidung wegen Nichteinhaltung kann auch einen erweiterten Überwachungszeitraum auslösen, um die Einhaltung der Maßnahmen sicherzustellen, die der Anbieter zu ergreifen beabsichtigt, um den Verstoß zu beheben. Die Kommission kann auch Zwangsgelder verhängen, um eine Plattform zur Einhaltung der Vorschriften zu zwingen.
Hintergrund
X, vormals Twitter, wurde am 25. April 2023 im Rahmen des EU-Gesetzes über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem sie erklärt hatte, monatlich mehr als 45 Millionen aktive Nutzer in der EU zu erreichen.
Am 18. Dezember 2023 leitete die Kommission ein förmliches Verfahren ein, um zu prüfen, ob X möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit der Verbreitung illegaler Inhalte und der Wirksamkeit der zur Bekämpfung der Informationsmanipulation ergriffenen Maßnahmen zusammenhängen, für die die Untersuchung fortgesetzt wird, sowie Dark Patterns, Transparenz der Werbung und Datenzugang für Forscher, die Gegenstand der heute angenommenen vorläufigen Feststellungen sind.
Die Kommission hat auch ein Whistleblower-Tool eingerichtet, das es Mitarbeitern und anderen Personen mit Wissen ermöglicht, sich anonym mit der Kommission in Verbindung zu setzen, um zur Überwachung der Einhaltung durch die Kommission durch benannte sehr große Online-Plattformen/VLOSE beizutragen.
Darüber hinaus hat die Kommission im Februar und April 2024 ein förmliches Verfahren gegen TikTok, AliExpress im März 2024 und Meta im April und Mai 2024 eingeleitet.
Die EU-Kommission hat entschieden, dass XNXX eine sehr große Onlineplattformen (VLOP) im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) ist
Die Pressemitteilung der EU-Kommission: Kommission benennt nicht jugendfreie Plattform XNXX als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste
Die Kommission hat XNXX heute offiziell als sehr große Online-Plattform (VLOP) gemäß dem Gesetz über digitale Dienste benannt.
XNXX ist eine Plattform für nicht jugendfreie Inhalte mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Anzahl von Nutzern, die XNXX der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als sehr große Online-Plattform. Nach der heutigen Benennung als sehr große Online-Plattform muss XNXX nun innerhalb von vier Monaten nach seiner Benachrichtigung (d. h. ab Mitte November 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten. Zu den Verpflichtungen gehören die Ergreifung besonderer Maßnahmen zur Stärkung und zum Schutz ihrer Online-Nutzer. So müssen sie den Zugang Minderjähriger zu pornografischen Online-Inhalten verhindern (auch mit Instrumenten zur Altersüberprüfung), Forschern öffentlich zugängliche Daten zur Verfügung stellen und ein Archiv der Werbeanzeigen veröffentlichen.
Darüber hinaus muss XNXX alle systemischen Risiken, die sich aus seinen Diensten ergeben, gründlich bewerten und mindern, z. B. Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte oder negativen Auswirkungen auf das geistige und körperliche Wohlbefinden der Nutzer. Den ersten Risikobewertungsbericht muss die benannte Plattform bis Mitte November 2024 vorlegen.
Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich XNXX, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Dazu gehören z. B. die Bereitstellung benutzerfreundlicher Mechanismen zur Meldung illegaler Inhalte, die eindeutige Kennzeichnung von Werbung in ihren Diensten und die Veröffentlichung jährlicher Transparenzberichte.
Nächste Schritte
Nach der Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch XNXX in Zusammenarbeit mit dem tschechischen Koordinator für digitale Dienste zu überwachen.
Hintergrund
Diese Benennung verdeutlicht, dass die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt.
Die Kommission hatte im Dezember 2023 bereits drei weitere Plattformen für nicht jugendfreie Inhalte benannt, nämlich Pornhub, Stripchat und XVideos. Mit der heutigen Benennung erhöht sich die Zahl der gemäß dem Gesetz über digitale Dienste als solche benannten sehr großen Online-Plattformen und -Suchmaschinen auf insgesamt 25.
Im Rahmen ihrer Aufsichts- und Durchsetzungsaufgaben überwacht die Kommission die Einhaltung des Gesetzes über digitale Dienste durch sehr große Online-Plattformen und kann per Auskunftsverlangen von den Plattformen weitere detaillierte Informationen darüber einholen, wie diese ihren gesetzlichen Verpflichtungen nachkommen. Am 13. Juni 2024 richtete die Kommission solche Auskunftsverlangen an Pornhub, Stripchat und XVideos. Darin forderte sie die Plattformen auf, ausführlichere Informationen über ihre Maßnahmen gegen die Verstärkung illegaler Inhalte und geschlechtsspezifischer Gewalt und über ihre Alterskontrollvorkehrungen zu geben.
Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste teilen sich die Kommission und die Koordinatoren für digitale Dienste, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.
Die EU-Kommission hat ein förmliches Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen möglicherweise unzureichendem Schutz Minderjähriger auf Instagram und Facebook eingeleitet.
Die Pressemitteilung der EU-Kommission: Kommission leitet förmliches Verfahren gegen Meta nach dem Gesetz über digitale Dienste zum Schutz Minderjähriger auf Facebook und Instagram ein
Die Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta, der Anbieter von Facebook und Instagram, in Bereichen im Zusammenhang mit dem Schutz Minderjähriger möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.
Die Kommission ist besorgt, dass die Systeme sowohl von Facebook als auch von Instagram, einschließlich ihrer Algorithmen, Verhaltensabhängigkeiten bei Kindern stimulieren und so genannte „Rabbit-Out-Effekte“ erzeugen können. Darüber hinaus ist die Kommission besorgt über die Alterssicherungs- und Überprüfungsmethoden, die Meta eingeführt hat.
Die heutige Einleitung des Verfahrens stützt sich auf eine vorläufige Analyse des von Meta im September 2023 übermittelten Risikobewertungsberichts, auf die Antworten von Meta auf die förmlichen Auskunftsersuchen der Kommission (zum Schutz Minderjähriger und zur Methodik der Risikobewertung), auf öffentlich zugängliche Berichte sowie auf die eigene Analyse der Kommission.
Das vorliegende Verfahren betrifft folgende Bereiche:
- Die Einhaltung der Verpflichtungen von Meta im Rahmen des Gesetzes über digitale Dienste zur Bewertung und Minderung von Risiken, die durch die Gestaltung der Online-Schnittstellen von Facebook und Instagram verursacht werden, was die Schwächen und Unerfahrenheit Minderjähriger ausnutzen und zu Suchtverhalten führen und/oder den sogenannten „Rabbit-Locheffekt“ verstärken kann. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden von Kindern sowie für die Achtung ihrer Rechte entgegenzuwirken.
- Die Einhaltung der Anforderungen des Gesetzes über digitale Dienste durch Meta in Bezug auf die Risikominderungsmaßnahmen zur Verhinderung des Zugangs Minderjähriger zu unangemessenen Inhalten, insbesondere zu den von Meta verwendeten Instrumenten zur Altersüberprüfung, die möglicherweise nicht angemessen, verhältnismäßig und wirksam sind.
- Die Einhaltung der Verpflichtungen von Meta im Gesetz über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere im Hinblick auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Konzeption und Funktionsweise ihrer Empfehlungssysteme.
Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 28, 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Einleitung eines förmlichen Verfahrens greift dem Ergebnis des Verfahrens nicht vor und lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die eine Zuwiderhandlung gegen das Gesetz über digitale Dienste darstellen könnten.
Nächste Schritte
Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen und weiterhin Beweise sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie den Erlass einstweiliger Maßnahmen und Beschlüsse wegen Nichteinhaltung der Vorschriften zu ergreifen. Die Kommission ist ferner befugt, Verpflichtungszusagen von Meta anzunehmen, mit denen die im Verfahren aufgeworfenen Probleme behoben werden sollen.
Die Einleitung dieses förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste im Zusammenhang mit einem mutmaßlichen Verstoß gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.
Hintergrund
Facebook und Instagram wurden am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattformen (VLOP) eingestuft, da beide über 45 Millionen monatlich aktive Nutzer in der EU haben. Als sehr große Online-Plattformen mussten Facebook und Instagram vier Monate nach ihrer Benennung, d. h. Ende August 2023, damit beginnen, eine Reihe von Verpflichtungen gemäß dem Gesetz über digitale Dienste zu erfüllen. Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.
Am 30. April 2024 hatte die Kommission bereits ein förmliches Verfahren gegen Meta eingeleitet, und zwar sowohl in Bezug auf Facebook als auch in Bezug auf Instagram in Bezug auf irreführende Werbung, politische Inhalte, Melde- und Abhilfemechanismen, den Datenzugang für Forscher sowie die Tatsache, dass im Vorfeld der Wahlen zum Europäischen Parlament kein wirksames Instrument für den Bürgerdiskurs Dritter in Echtzeit zur Verfügung steht.
Die EU-Kommission hat ein Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen unzureichender Maßnahmen gegen Irreführende Werbung und Desinformation auf Facebook und Instagram eingeleitet.
Die Pressemitteilung des EU-Kommission: Kommission leitet förmliches Verfahren gegen Facebook und Instagram nach dem Gesetz über digitale Dienste ein
Die Europäische Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta, der Anbieter von Facebook und Instagram, möglicherweise gegen das Gesetz über digitale Dienste (DSA) verstoßen hat.
Kommissionspräsidentin Ursula von der Leyen erklärte: „Diese Kommission hat Mittel geschaffen, um die europäischen Bürgerinnen und Bürger vor gezielter Desinformation und Manipulation durch Drittländer zu schützen. Wenn wir einen Verstoß gegen die Vorschriften vermuten, handeln wir. Dies gilt jederzeit, insbesondere in Zeiten demokratischer Wahlen. Große digitale Plattformen müssen ihrer Verpflichtung nachkommen, ausreichende Ressourcen dafür einzusetzen, und die heutige Entscheidung zeigt, dass wir mit der Einhaltung ernstlich sind. Der Schutz unserer Demokratien ist ein gemeinsamer Kampf mit unseren Mitgliedstaaten. Heute in Prag möchte ich Premierminister Fiala für seine aktive Rolle bei der Befassung mit diesem Thema auf europäischer Ebene sowie für die Aktivierung des Notfallmechanismus für den Informationsaustausch zwischen den Mitgliedstaaten durch Belgien danken.“
Die mutmaßlichen Verstöße betreffen die Strategien und Praktiken von Meta in Bezug auf irreführende Werbung und politische Inhalte in seinen Diensten. Sie betreffen auch die Nichtverfügbarkeit eines wirksamen zivilgesellschaftlichen Diskurses und Wahlüberwachungsinstruments Dritter in Echtzeit im Vorfeld der Wahlen zum Europäischen Parlament vor dem Hintergrund, dass Meta sein Echtzeit-Tool für öffentliche Einblicke CrowdTangle ohne angemessenen Ersatz verdrängt hat.
Darüber hinaus vermutet die Kommission, dass der Mechanismus zur Kennzeichnung illegaler Inhalte in den Diensten („Notice-and-Action“) sowie die Rechtsbehelfe der Nutzer und interne Beschwerdemechanismen nicht den Anforderungen des Gesetzes über digitale Dienste entsprechen und dass Meta bei der Bereitstellung des Zugangs zu öffentlich zugänglichen Daten für Forscher Mängel aufweist. Die Einleitung des Verfahrens stützt sich auf eine vorläufige Analyse des von Meta im September 2023 übermittelten Risikobewertungsberichts, die Antworten von Meta auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten und Desinformationen, Datenzugang, Abonnements für „No-Ads“-Politik und generative KI), öffentlich zugänglichen Berichten und der eigenen Analyse der Kommission.
Das vorliegende Verfahren wird sich auf folgende Bereiche konzentrieren:
- Irreführende Werbung und Desinformation. Die Kommission vermutet, dass Meta seinen Verpflichtungen aus dem Gesetz über digitale Dienste im Zusammenhang mit der Verbreitung irreführender Werbung, Desinformationskampagnen und einem koordinierten unauthentischen Verhalten in der EU nicht nachkommt. Die Verbreitung solcher Inhalte kann eine Gefahr für den gesellschaftlichen Diskurs, die Wahlprozesse und die Grundrechte sowie den Verbraucherschutz darstellen.
- Sichtbarkeit politischer Inhalte. Die Kommission vermutet, dass die Politik von Meta im Zusammenhang mit dem „politischen inhaltlichen Ansatz“, der politische Inhalte in den Empfehlungssystemen von Instagram und Facebook, einschließlich ihrer Feeds, abbildet, nicht mit den Verpflichtungen aus dem Gesetz über digitale Dienste im Einklang steht. Im Mittelpunkt der Untersuchung steht die Vereinbarkeit dieser Politik mit den Transparenz- und Rechtsbehelfspflichten der Nutzer sowie mit den Anforderungen zur Bewertung und Minderung der Risiken für den gesellschaftlichen Diskurs und die Wahlprozesse.
Die Tatsache, dass im Vorfeld der bevorstehenden Wahlen zum Europäischen Parlament und anderer Wahlen in verschiedenen Mitgliedstaaten kein wirksames Instrument für den Bürgerdiskurs und die Wahlbeobachtung durch Dritte in Echtzeit zur Verfügung steht. Meta ist dabei, „CrowdTangle“ auszuhöhlen, ein Instrument für öffentliche Einblicke, das eine Echtzeit-Wahlüberwachung durch Forscher, Journalisten und die Zivilgesellschaft ermöglicht, auch durch visuelle Live-Dashboards ohne angemessenen Ersatz. Wie jedoch in den jüngsten Leitlinien der Kommission für Anbieter sehr großer Online-Plattformen zu systemischen Risiken für Wahlprozesse zum Ausdruck kommt, sollte der Zugang zu solchen Instrumenten in Zeiten von Wahlen ausgeweitet werden. Die Kommission vermutet daher, dass Meta die Risiken im Zusammenhang mit den Auswirkungen von Facebook und Instagram auf den gesellschaftlichen Diskurs und die Wahlprozesse sowie andere systemische Risiken nicht sorgfältig bewertet und angemessen gemindert hat. Angesichts der Reichweite der Meta-Plattformen in der EU (auf die monatlich mehr als 250 Millionen aktive Nutzer entfallen) und im Anschluss an die Wahl zum Europäischen Parlament, die vom 6. bis 9. Juni 2024 stattfinden wird, und einer Reihe weiterer Wahlen, die in verschiedenen Mitgliedstaaten stattfinden, könnte eine solche Deutung den gesellschaftlichen Diskurs und die Wahlprozesse in Bezug auf die Fähigkeiten zur Verfolgung von Fehl- und Desinformation, die Ermittlung der Einmischung und Unterdrückung von Wählern und die allgemeine Transparenz in Echtzeit für Faktenprüfer, Journalisten und andere relevante Interessenträger bei Wahlen beeinträchtigen. Die Kommission behält sich ihre Bewertung der Art und des Ausmaßes des Schadens vor und erwartet, dass Meta mit der Kommission zusammenarbeiten wird, indem sie unverzüglich die für eine solche Bewertung erforderlichen Informationen vorlegt. Die Kommission erwartet ferner, dass Meta rasch alle erforderlichen Maßnahmen ergreifen wird, um eine wirksame öffentliche Kontrolle seines Dienstes in Echtzeit zu gewährleisten, indem es Forschern, Journalisten und Wahlbeamten angemessenen Zugang zu Echtzeit-Überwachungsinstrumenten für Inhalte gewährt, die in seinen Diensten gehostet werden. Meta wird außerdem aufgefordert, innerhalb von fünf Arbeitstagen mitzuteilen, welche Abhilfemaßnahmen getroffen wurden. Die Kommission hat sich das Recht vorbehalten, Maßnahmen zu ergreifen, falls diese Maßnahmen als unzureichend erachtet werden.
Der Mechanismus zur Kennzeichnung illegaler Inhalte. Die Kommission vermutet, dass der Melde- und Abhilfemechanismus von Meta, der es Nutzern ermöglicht, illegale Inhalte in seinen Diensten zu melden, gegen die Verpflichtungen aus dem Gesetz über digitale Dienste verstößt. Dies schließt den Verdacht ein, dass die Anforderungen, mit denen dieser Mechanismus leicht zugänglich und benutzerfreundlich sein muss, nicht erfüllt sind. Gleichzeitig vermutet die Kommission, dass Meta kein wirksames internes Beschwerdemanagementsystem für die Einreichung von Beschwerden gegen Entscheidungen zur Moderation von Inhalten eingerichtet hat.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 14 Absatz 1, Artikel 16 Absätze 1 und 5, Artikel 16 Absatz 6, Artikel 17 Absatz 1, Artikel 20 Absatz 1, Artikel 20 Absatz 3, Artikel 24 Absatz 5, Artikel 25 Absatz 1, Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.
Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die eine Zuwiderhandlung im Rahmen des Gesetzes über digitale Dienste darstellen könnten.
Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, Verpflichtungszusagen von Meta anzunehmen, mit denen die im Verfahren aufgeworfenen Probleme behoben werden sollen. Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.
Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 14 Absatz 1, Artikel 16 Absätze 1 und 5, Artikel 16 Absatz 6, Artikel 20 Absätze 1 und 3, Artikel 24 Absatz 5, Artikel 25 Absatz 1 und Artikel 40 Absatz 12 zu überwachen und durchzusetzen.
Hintergrund
Facebook und Instagram wurden am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattformen (VLOP) eingestuft, da beide über 45 Millionen monatlich aktive Nutzer in der EU haben. Als sehr große Online-Plattformen mussten Facebook und Instagram vier Monate nach ihrer Benennung, d. h. Ende August 2023, damit beginnen, eine Reihe von Verpflichtungen gemäß dem Gesetz über digitale Dienste zu erfüllen.
Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.
Die EU-Kommission hat ein weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite eingleitet.
Die Pressemitteilung der EU-Kommission: Kommission leitet Verfahren gegen TikTok im Rahmen des Gesetzes über digitale Dienste wegen des Starts von TikTok Lite in Frankreich und Spanien ein und teilt ihre Absicht mit, das Belohnungsprogramm in der EU auszusetzen
Die Kommission hat heute ein zweites förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste (DSA) eingeleitet. Mit der heutigen Eröffnung soll geprüft werden, ob das Unternehmen bei der Gründung von TikTok Lite in Frankreich und Spanien möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.
Die Kommission ist besorgt darüber, dass das „Task and Reward Program“ von TikTok Lite, das es Nutzern ermöglicht, Punkte zu erhalten, wenn sie bestimmte „Aufgaben“ auf TikTok erfüllen – wie z. B. Videos, Liking-Inhalte, Nachbereiter, Einladung von Freunden zum Beitritt zu TikTok usw. – ohne vorherige sorgfältige Bewertung der damit verbundenen Risiken, insbesondere der mit dem Suchteffekt der Plattformen verbundenen Risiken, und ohne wirksame Risikominderungsmaßnahmen zu ergreifen. Dies ist für Kinder besonders besorgniserregend, da auf TikTok vermutet wird, dass es keine wirksamen Mechanismen zur Altersüberprüfung gibt. Das Fehlen wirksamer Mechanismen zur Altersüberprüfung und die mutmaßliche suchterzeugende Gestaltung der Plattformen werden bereits im ersten förmlichen Verfahren gegen TikTok untersucht.
Die Untersuchung wird sich daher auf folgende Bereiche konzentrieren:
- Die Einhaltung der Verpflichtung von TikTok, vor der Einführung von Funktionen, in diesem Fall des Programms „Task and Reward Lite“, einen Risikobewertungsbericht zu erstellen und vorzulegen, die wahrscheinlich kritische Auswirkungen auf Systemrisiken haben werden. Insbesondere negative Auswirkungen auf die psychische Gesundheit, einschließlich der psychischen Gesundheit Minderjähriger, insbesondere aufgrund des neuen Merkmals, das Suchtverhalten stimuliert.
- Die von TikTok ergriffenen Maßnahmen zur Minderung dieser Risiken.
Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.
Darüber hinaus übermittelte die Kommission TikTok auf der Grundlage eines Beschlusses der Kommission ein förmliches Auskunftsverlangen, in dem das Unternehmen zur Beantwortung seines Auskunftsersuchens vom 17. April 2024 aufgefordert wurde. Insbesondere hatte die Kommission TikTok aufgefordert, bis zum 18. April den Risikobewertungsbericht für TikTok Lite sowie Informationen über die Maßnahmen vorzulegen, die die Plattform ergriffen hat, um potenzielle systemische Risiken dieser neuen Funktionen zu mindern. TikTok hat dieses Dokument nicht fristgerecht vorgelegt.
TikTok hat nun bis zum 23. April Zeit, der Kommission den Risikobewertungsbericht und bis zum 3. Mai die übrigen angeforderten Informationen vorzulegen.
Falls TikTok das Auskunftsersuchen der Kommission nicht innerhalb der angegebenen Fristen per Beschluss beantwortet, kann die Kommission Geldbußen in Höhe von bis zu 1 % des jährlichen Gesamtumsatzes oder des weltweiten Gesamtumsatzes des Anbieters sowie Zwangsgelder in Höhe von bis zu 5 % des durchschnittlichen Tageseinkommens des Anbieters oder des weltweiten Jahresumsatzes verhängen.
Da TikTok nicht in der Lage war, die Risikobewertung vorzulegen, die vor der Einführung von TikTok Lite hätte durchgeführt werden müssen, vermutet die Kommission einen prima facie Verstoß gegen das Gesetz über digitale Dienste und ist der Auffassung, dass die Gefahr einer schwerwiegenden Schädigung der psychischen Gesundheit der Nutzer besteht. Die Kommission hat TikTok daher auch ihre Absicht mitgeteilt, vorläufige Maßnahmen zu ergreifen, die in der Aussetzung des Programms „TikTok Lite“ in der EU bis zur Bewertung seiner Sicherheit bestehen. Es könnte verlängert werden, wenn dies notwendig und verhältnismäßig ist. Vor der förmlichen Annahme der Aussetzung wurde TikTok bis zum 24. April Zeit eingeräumt, in seiner Verteidigung Argumente vorzubringen, die die Kommission sorgfältig prüfen wird.
Nächste Schritte
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.
Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße zu überwachen und durchzusetzen.
Hintergrund
Am 25. April 2023 benannte die Kommission TikTok gemäß dem Gesetz über digitale Dienste auf der Grundlage der TikTok -Nutzerdatenbank, die den Schwellenwert von 45 Millionen durchschnittlichen aktiven Nutzern in der EU erreicht, TikTok als sehr große Online-Plattform. Seit Ende August 2023 unterliegt TikTok den Verpflichtungen aus dem Gesetz über digitale Dienste.
TikTok Lite ist eine neue App mit einer Funktion für Nutzer ab 18 Jahren, die als „Task and Reward Program“ bezeichnet wird und es Nutzern ermöglicht, bei der Ausführung bestimmter „Aufgaben“ auf TikTok Punkte zu erhalten, wie z. B. Videos anschauen, Liking-Inhalte, Nachschaffende, Einladung von Freunden zum TikTok usw. Diese Punkte können gegen Belohnung wie Amazon-Gutscheine, Geschenkkarten über PayPal oder TikTok-Münzen, die für Kipper ausgegeben werden können, ausgetauscht werden. TikTok Lite wurde im letzten Monat in Frankreich und Spanien ins Leben gerufen.
Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.
Im Februar 2024 leitete die Kommission ein erstes förmliches Verfahren gegen TikTok ein, um zu prüfen, ob TikTok möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit dem Schutz Minderjähriger, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte zusammenhängen. Die Untersuchung ist noch nicht abgeschlossen.
Derzeit sind zwei weitere förmliche Verfahren im Rahmen des Gesetzes über digitale Dienste anhängig: eine gegen X und eine gegen AliExpress.
Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.
Die EU-Kommission hat ein förmliches Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern eingeleitet.
Die Pressemitteilung der EU-Kommission: Kommission leitet förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste ein
Die Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob AliExpress in Bereichen im Zusammenhang mit dem Management und der Minderung von Risiken, der Moderation von Inhalten und dem internen Beschwerdemanagementsystem, der Transparenz von Werbe- und Empfehlungssystemen, der Rückverfolgbarkeit von Händlern und dem Datenzugang für Forscher möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.
Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich der Analyse des von AliExpress im August 2023 übermittelten Risikobewertungsberichts, der in seinem Transparenzbericht veröffentlichten Informationen und ihrer Antworten auf die förmlichen Auskunftsersuchen der Kommission (vom 6. November 2023 und 18. Januar 2024), hat die Kommission beschlossen, ein förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste einzuleiten.
Die Beratungen werden sich auf folgende Bereiche konzentrieren:
- Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste in Bezug auf die Bewertung und Minderung der systemischen Risiken der Verbreitung illegaler Inhalte sowie tatsächliche oder vorhersehbare negative Auswirkungen auf den Verbraucherschutz, insbesondere im Zusammenhang mit
- Die mangelnde Durchsetzung von AliExpress-Dienstleistungsbedingungen, die bestimmte Produkte verbieten, die eine
Gefahr für die Gesundheit der Verbraucher darstellen (z. B. gefälschte Arzneimittel und Lebensmittel sowie
Nahrungsergänzungsmittel) und speziell für Minderjährige (Zugang zu pornografischem Material), die die Verbraucher noch
auf der Plattform finden können;
- Das Fehlen wirksamer Maßnahmen zur Verhinderung der Verbreitung illegaler Inhalte;
- Das Fehlen wirksamer Maßnahmen, um vorsätzliche Manipulationen auf der Online-Plattform durch sogenannte „versteckte
Links“ zu verhindern;
- Das Fehlen wirksamer Maßnahmen zur Vermeidung von Risiken aufgrund von Merkmalen wie Influencern, die illegale oder
schädliche Produkte im Rahmen des „verbundenen Programms“ von AliExpress fördern.
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, allen Nutzern, einschließlich derjenigen, die nicht registriert sind, zu ermöglichen, illegale Inhalte zu melden und eine Bestätigung des Eingangs der Meldung zu erhalten;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein wirksames internes Beschwerdemanagementsystem bereitzustellen;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, die Zuverlässigkeit und Vollständigkeit der von Wirtschaftsbeteiligten, die AliExpress verwenden, angeforderten Informationen zu sammeln und zu bewerten, auch in Bezug auf Händler im Rahmen des „AliExpress Affiliate Program“, im Einklang mit der Rückverfolgbarkeit der Bestimmungen der Händler;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, für Transparenz in Bezug auf die wichtigsten Parameter zu sorgen, die in den Empfehlungssystemen von AliExpress verwendet werden, und mindestens eine Option eines Empfehlungssystems anzubieten, das nicht auf Profiling beruht;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf AliExpress bereitzustellen;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, Forschern gemäß Artikel 40 des Gesetzes über digitale Dienste Zugang zu öffentlich zugänglichen Daten von AliExpress zu gewähren.
Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 16, 20, 26, 27, 30, 34, 35, 38, 39 und 40 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.
Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen zu ergreifen, z. B. einstweilige Maßnahmen zur Beendigung oder Behebung eines Verstoßes gegen Artikel 28 Absatz 1 und Beschlüsse wegen Nichteinhaltung. Die Kommission ist ferner befugt, von AliExpress eingegangene Verpflichtungszusagen anzunehmen, um Abhilfe in dem von dem Verfahren betroffenen Sachverhalt zu schaffen.
Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.
Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen die Artikel 16, 20, 26, 27 und 30 zu überwachen und durchzusetzen.
Die Einleitung eines förmlichen Verfahrens greift weder dem Ergebnis noch anderen Verfahren vor, die die Kommission nach anderen Artikeln des Gesetzes über digitale Dienste einleiten kann. Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die andere Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergreifen.
Hintergrund
AliExpress wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 104,3 Millionen monatlich aktive Nutzer in der EU gibt. Als VLOP musste AliExpress vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von Verpflichtungen aus dem Gesetz über digitale Dienste beginnen.
Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.
Die EU-Kommission hat ein förmliches Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen möglicher Mängel in den Bereichen Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung eingeleitet.
Die Pressemitteilung der EU-Kommission: Kommission leitet förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste ein
Die Europäische Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok in Bereichen im Zusammenhang mit dem Jugendschutz, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.
Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich einer Analyse des von TikTok im September 2023 übermittelten Risikobewertungsberichts sowie der Antworten von TikTok auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten, zum Schutz Minderjähriger und zum Datenzugang), hat die Kommission beschlossen,ein förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste einzuleiten.
Die Beratungen werden sich auf folgende Bereiche konzentrieren:
Die Einhaltung der Verpflichtungen im Rahmen des Gesetzes über digitale Dienste im Zusammenhang mit der Bewertung und Minderung systemischer Risiken in Bezug auf tatsächliche oder vorhersehbare negative Auswirkungen, die sich aus der Gestaltung des TikTok-Systems, einschließlich algorithmischer Systeme, ergeben und die Verhaltensabhängigkeit stimulieren und/oder sogenannte „Kabbit-Locheffekte“ hervorrufen können. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden der Person, die Achtung der Rechte des Kindes sowie dessen Auswirkungen auf Radikalisierungsprozesse entgegenzuwirken. Darüber hinaus sind die diesbezüglich bestehenden Risikominderungsmaßnahmen, insbesondere die von TikTok verwendeten Instrumente zur Altersüberprüfung, um den Zugang Minderjähriger zu unangemessenen Inhalten zu verhindern, möglicherweise nicht angemessen, verhältnismäßig und wirksam;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere in Bezug auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Gestaltung und Funktionsweise ihrer Empfehlungssysteme;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf TikTok bereitzustellen;
Die von TikTok ergriffenen Maßnahmen zur Erhöhung der Transparenz seiner Plattform. Die Untersuchung betrifft mutmaßliche Mängel beim Zugang von Forschern zu öffentlich zugänglichen Daten von TikTok gemäß Artikel 40 des Gesetzes über digitale Dienste.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1, Artikel 28 Absatz 1, Artikel 39 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.
Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die einen Verstoß nach dem Gesetz über digitale Dienste darstellen könnten, beispielsweise im Zusammenhang mit den Verpflichtungen eines Anbieters in Bezug auf die Verbreitung illegaler Inhalte wie terroristische Inhalte oder sexuellen Kindesmissbrauch im Internet oder die Meldung eines Verdachts auf Straftaten.
Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die von anderen Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergriffen werden.
Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.
Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.
Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.
Hintergrund
TikTok wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 135,9 Millionen monatlich aktive Nutzer in der EU hat. Als VLOP musste TikTok vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von im Gesetz über digitale Dienste festgelegten Verpflichtungen beginnen.
Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.
Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts (DSA) - Stand 15.01.2024 vorgelegt.
Aus dem Entwurf: Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze
A. Problem und Ziel
Am 16. November 2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „DSA“ [= Digital Services Act]). Der DSA gilt ab dem 17. Februar 2024. Mit dem DSA wird ein horizontaler Rechtsrahmen, also ein einheitlicher Rechtsrahmen für alle Kategorien digitaler Vermittlungsdienste, geschaffen.
Ziel des DSA ist es, für alle Mitgliedstaaten der Europäischen Union (EU) einheitliche horizontale Regeln festzulegen für ein sicheres und vertrauenswürdiges Online-Umfeld, in dem die in der EU-Grundrechtecharta verankerten Grundrechte, darunter der Verbraucherschutz, wirksam geschützt werden. Zudem soll eine starke und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über digitale Vermittlungsdienste in der EU sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der auch Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennimmt und Zugriff auf die Daten der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) erhält. Ergänzend regelt der DSA das Verhältnis der digitalen Vermittlungsdienste zu ihren Nutzerinnen und Nutzern neu. So müssen Hostingdiensteanbieter Melde- und Abhilfeverfahren für illegale Inhalte vorhalten. Zudem werden Hostingdiensteanbieter zu Maßnahmen gegen illegale Aktivitäten und Anbieter von Online-Plattformen zu Maßnahmen gegen eine mögliche missbräuchliche Verwendung der Melde- und Abhilfeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. OnlineMarktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten wollen, vorher überprüfen. Ferner sieht der DSA im Bereich kommerzieller Werbung Transparenzverpflichtungen sowie ein Verwendungsverbot bestimmter personenbezogener Daten vor sowie für sehr große Online-Plattformen bzw. sehr große Online-Suchmaschinen strengere Verpflichtungen als für kleine und mittlere Anbieter. Dies alles soll die Sicherheit des digitalen Umfelds fördern. Schließlich wird ein Rahmen für die Umsetzung, Zusammenarbeit, Sanktionierung und Durchsetzung des DSA festgelegt, der konkrete, an die Mitgliedstaaten gerichtete Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.
B. Lösung
Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetz) wird der nationale Rechtsrahmen an den Vorgaben des DSA ausgerichtet und entsprechend angepasst.
Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste entweder anzupassen oder aufzuheben.
Der Gesetzentwurf schafft vor allem einen Rechtsrahmen für die behördliche Überwachung der Einhaltung von DSA-Vorschriften durch Anbieter von Vermittlungsdiensten. Zu diesem Zweck wird insbesondere eine zentrale Stelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und für die Durchsetzung des DSA benannt: Die Koordinierungsstelle für digitale Dienste wird innerhalb der zuständigen Bundesnetzagentur eingerichtet, um eine wirksame und zugleich unabhängige Aufsicht über digitale Vermittlungsdienste zu gewährleisten. Der vorliegende Entwurf regelt auch Organisation und Funktion der Koordinierungsstelle für digitale Dienste. Ergänzend werden Sonderzuständigkeiten für die Bundeszentrale für Kinder- und Jugendmedienschutz, für nach den medienrechtlichen Bestimmungen der Länder benannte Stellen und für den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit geschaffen. Zudem werden – wo nicht bereits durch den DSA geregelt – Befugnisse der vorgenannten Stellen festgelegt. Der Gesetzentwurf regelt ebenfalls die Zusammenarbeit der jeweils zuständigen Stellen mit weiteren Behörden, deren Zuständigkeit im Einzelfall berührt werden kann. Der vom DSA vorgegebene Spielraum für Sanktionen bei Verstößen gegen den DSA wird durch diesen Gesetzentwurf ausgeschöpft. Ergänzend werden erforderliche Gesetzesänderungen vorgenommen, um nationales Recht an die Terminologie des DSA anzupassen.
Die EU-Kommission hat entschieden, dass Pornhub, Stripchat und XVideos sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) sind.
Die Pressemitteilung des EU-Kommission: Today, the Commission adopted a second set of designation decisions under the Digital Services Act, designating 3 Very Large Online Platforms (VLOPs). These are:
Pornhub
Stripchat
XVideos
The designation is the result of Commission investigations concluding that the three services fulfil the threshold of 45 million average monthly users in the EU.
Today's designations follow a first set of designation decisions of 19 Very Large Online Platforms and Search Engines on 25 April 2023, of which the Commission published the non-confidential versions today.
General date of applicability of the DSA
With the exception of small and microenterprises, all online platforms and search engines will need to comply with the general DSA obligations by 17 February 2024. Among other provisions, they will need to:
Provide user-friendly mechanisms to allow users or entities to notify illegal content;
Prioritise the treatment of notices submitted by so-called “trusted flaggers”;
Provide statements of reasons to users when their content is restricted or removed;
Provide an internal complaint-handling system for users to appeal content moderation decisions;
Promptly inform law enforcement authorities if they become aware of any information giving rise to a suspicion that a criminal offence involving a threat to the life or safety of a person has taken place, is taking place or is likely to take place, including in the case of child sexual abuse;
Redesign their systems to ensure a high level of privacy, security, and safety of minors;
Ensure that their interfaces are not designed in a way that deceives or manipulates the users;
Clearly label advertisement on their interfaces;
Stop presenting targeted advertisement based on profiling of sensitive data (such as ethnic origin, political opinions or sexual orientation), or targeted at minors;
Have clear terms and conditions and act in a diligent, objective and proportionate manner when applying them;
Publish once a year transparency reports on their content moderation processes.
More stringent rules for designated VLOPs
In addition to the general provisions in the DSA, within four months of their designation as VLOPs, Pornhub, XVideos and Stripchat will also have to adopt specific measures to empower and protect users online, including minors, and duly assess and mitigate any systemic risks stemming from their services. These additional, specific obligations include:
More diligent content moderation:
VLOPs need to analyse their specific systemic risks with regard to the dissemination of illegal content and of content threatening fundamental rights. Risk assessments reports will have to be provided to the Commission 4 months after the notification of the formal designation and made public at the latest a year later;
VLOPs must put in place mitigation measures to address risks linked to the dissemination of illegal content online, such as child sexual abuse material, and content affecting fundamental rights, such as the right to human dignity and private life in case of non-consensual sharing of intimate material online or deepfake pornography. These measures can include adapting their terms and conditions, interfaces, moderation processes, or algorithms, among others;
VLOPs must reinforce their internal processes, resources, testing, documentation, and supervision of any of their activities linked to the detection of systemic risks.
Strong protection of minors:
VLOPs must design their services, including their interfaces, recommender systems, and terms and conditions, to address and prevent risks to the well-being of children. Mitigating measures to protect the rights of the child, and prevent minors from accessing pornographic content online, including with age verification tools;
Risk assessment reports will have in particular to detail any negative effect on the protection of the mental and physical health of minors.
More transparency and accountability:
VLOPs need to ensure that their risk assessments and their compliance with all the DSA obligations are externally and independently audited;
VLOPs need to publish repositories of all the ads served on their interface;
VLOPs will have to give access to publicly available data to researchers, including to vetted researchers designated by Digital Services Coordinators;
VLOPs need to comply with additional transparency requirements, including the publication of transparency reports on content moderation decisions and risk management every six months, in addition to reports on their systemic risks and audit results once a year;
VLOPs need to appoint a compliance function and be subject to an external independent audit every year.
Next Steps
Following their designation as VLOPs, the Commission will be responsible for supervising Pornhub, Stripchat and XVideos, in cooperation with the Digital Services Coordinators of the Member States of establishment.
The Commission services will carefully monitor the compliance with the DSA obligations by these platforms, especially concerning the measures to protect minors from harmful content and to address the dissemination of illegal content. The Commission services are ready to closely engage with the newly designated platforms to ensure these are properly addressed.
Background
On 25 April 2023, the Commission designated the first 19 Very Large Online Platforms and Search Engines. Starting from the end of August, these VLOPs and VLOSEs must comply with the additional obligations under the DSA. By 17 February 2024, all platforms, with the exception of small and microenterprises, will have to comply with the general obligations introduced by the DSA.
The supervision and enforcement of the DSA will be shared between the Commission and Digital Services Coordinators, which will be designated by Member States by 17 February 2024.
Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.
Die Pressemitteilung des EU-Kommission: The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.
On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.
The proceedings will focus on the following areas:
The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.
The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.
The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.
A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.
If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.
These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.
Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.
The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.
The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.
The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).
Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.
As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:
Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.
Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.
Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data.
OVG Rheinland-Pfalz
Beschluss vom 12.09.2023 6 B 10622/23.OVG
Das OVG Rheinland-Pfalz hat entschieden, dass ein glücksspielrechtliches Mindestabstandsgebot für Wettvermittlungsstellen unionsrechtskonform ist.
Die Pressemitteilung des Gerichts: Glücksspielrechtliches Mindestabstandsgebot für Wettvermittlungsstellen europarechtlich unbedenklich
Die Regelung im Landesglücksspielgesetz, wonach Wettvermittlungsstellen einen Mindestabstand von 250 Metern Luftlinie zu einer öffentlichen oder privaten Einrichtung, die überwiegend von Minderjährigen besucht wird, einhalten müssen, ist mit Unionsrecht vereinbar. Dies entschied das Oberverwaltungsgericht Rheinland-Pfalz in Koblenz in einem Eilverfahren.
Die Antragstellerin möchte in Zweibrücken eine Wettvermittlungsstelle weiterbetreiben. Ihren Antrag auf Verlängerung der ihr befristet erteilten glücksspielrechtlichen Erlaubnis lehnte die Aufsichts- und Dienstleistungsdirektion (ADD) mit der Begründung ab, dass der gesetzliche Mindestabstand zu einer Nachhilfeeinrichtung, die auch von Minderjährigen besucht werde, nicht eingehalten sei. Hiergegen erhob die Antragstellerin Widerspruch und stellte beim Verwaltungsgericht Neustadt an der Weinstraße einen Eilantrag, den Betrieb der Wettvermittlungsstelle vorübergehend weiter zu dulden, insbesondere keine Maßnahmen einzuleiten, die auf eine Schließung des Betriebs abzielen. Das Verwaltungsgericht lehnte den Eilantrag ab. Ihre hiergegen eingelegte Beschwerde wies das Oberverwaltungsgericht zurück.
Die für den Betrieb einer Wettvermittlungsstelle für Sportwetten erforderliche glücksspielrechtliche Erlaubnis dürfe nach dem Landesglücksspielgesetz Rheinland-Pfalz (LGlüG) nur erteilt werden, wenn die Wettvermittlungsstelle unter anderem einen Mindestabstand von 250 Metern zu einer öffentlichen oder privaten Einrichtung, die überwiegend von Minderjährigen besucht werde, nicht unterschreite. Die Voraussetzungen dieser Mindestabstandsregelung lägen nicht vor. Die Regelung sei auch nicht – wie von der Antragstellerin geltend gemacht – aus unionsrechtlichen Gründen unanwendbar. Insbesondere ein Verstoß gegen das unionsrechtliche Kohärenzgebot sei nicht feststellbar. Nach der Rechtsprechung des Europäischen Gerichtshofs könnten nämlich solche Beschränkungen der Glücksspieltätigkeit durch einen zwingenden Grund des Allgemeininteresses wie den Schutz der Verbraucher, die Betrugsvorbeugung oder die Vermeidung von Anreizen für die Bürger zu übermäßigen Ausgaben für das Spielen gerechtfertigt sein. Die restriktive Maßnahme müsse allerdings geeignet sein, die Verwirklichung dieses Ziels dadurch zu gewährleisten, dass sie dazu beiträgt, die Tätigkeiten im Glücksspiel in kohärenter und systematischer Weise zu begrenzen. Der Senat teile die Auffassung des Verwaltungsgerichts, dass das Abstandsgebot dem Spieler- und Jugendschutz diene, da Sportwettangebote insbesondere auch für Kinder und Jugendliche ein hohes Gefährdungspotenzial hätten und damit eine örtliche Begrenzung des Angebots erreicht werden könne, um insbesondere Glücksspielsucht bei Kindern und Jugendlichen zu verhindern und zu bekämpfen. Das mit dem Abstandsgebot verfolgte Ziel der Spielsuchtbekämpfung und des Jugendschutzes werde durch Ausnahmen in anderen Bereichen des Glücksspielrechts, insbesondere für Lotto-Annahmestellen und Bestandsspielhallen nicht derart konterkariert, dass eine kohärente und systematische Verfolgung dieser Ziele nicht mehr vorliege. Im Unterschied zu Wettvermittlungsstellen, in denen sich ausschließlich Kunden fänden, die Sportwetten abschließen möchten oder Wettergebnisse live über Bildschirme mitverfolgten, gingen in Lotto-Annahmestellen vor allem Kunden ein und aus, die mit gewöhnlichen, ihren Alltagsbedarf deckenden Bedürfnissen befasst seien. Aus diesem Grund komme dem Glücksspielangebot in Lotto-Annahmestellen wegen der dort bestehenden sozialen Kontrolle eine andere Qualität zu. Für Spielhallen sehe das Landesglücksspielgesetz mit 500 Metern einen doppelt so hohen Mindestabstand unter anderem zu Kinder- und Jugendeinrichtungen vor. Zwar habe der Gesetzgeber für bei Inkrafttreten des Landesglücksspielgesetzes im Jahr 2012 bestehende Spielhallen eine großzügige Übergangsfrist bis zum 30. Juni 2028 gewährt. Die Übergangsfrist konterkariere die Mindestabstandsregelung aber nicht, weil sie ausweislich der Gesetzesmaterialien letztmalig verlängert worden sei und nur für Bestandsspielhallen gelte.
Beschluss vom 12. September 2023, Aktenzeichen: 6 B 10622/23.OVG
Aus dem Entwurf: A. Problem und Ziel
Am 16. November 2022 ist die Verordnung des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „Digital Services Act“ oder „DSA“). Die Verordnung gilt ab dem 17. Februar 2024. Mit der Verordnung wird ein horizontaler Rechtsrahmen für digitale Dienste geschaffen.
Ziel des DSA ist es, einheitliche horizontale Regeln festzulegen für ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld. Zudem soll eine robuste und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über Online-Plattformen in Europa sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennehmen und Zugriff auf die Daten der Plattformen erhalten soll. Ergänzend regelt der DSA das Verhältnis der Plattformen zu ihren Nutzerinnen und Nutzern neu. Die Anbieter müssen ein Melde- und Beschwerdeverfahren für illegale Inhalte vorhalten. Zudem werden Online-Plattformen zu Maßnahmen gegen illegale Aktivitäten und Missbrauch der Meldeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. Online-Marktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten, vorher überprüfen. Ferner sieht der DSA Transparenzverpflichtungen für kommerzielle Werbung vor, sowie strengere Verpflichtungen für sehr große Plattformen / Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) als für kleine und mittlere Anbieter vor. Dies alles soll ein sicheres digitales Umfeld fördern. Schließlich wird ein Rahmen für die Umsetzung, die Zusammenarbeit, für Sanktionen und die Durchsetzung des DSA angelegt, der konkrete, an die Mitgliedstaaten gerichteten Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.
B. Lösung
Der DSA ist im nationalen Recht durchzuführen und das nationale Recht ist anzupassen. Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetzes, oder DDG) ist der nationale Rechtsrahmen auf die Vorgaben des DSA auszurichten und anzupassen. Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste, abzulösen. Zur Durchführung des DSA sind insbesondere die zuständige nationale Koordinierungsstelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und zur Durchsetzung des DSA zu benennen, Sanktionsvorschriften zu erlassen und erforderliche Gesetzesänderungen vorzunehmen
EU-Parlament und EU-Rat haben sich über den Digital Services Act bzw. das Gesetz über digitale Dienste geeinigt.
Die Pressemitteilung der EU:
Digital Services Act: agreement for a transparent and safe online environment
- Access to platforms’ algorithms now possible
- Online platforms will have to remove illegal products, services or content swiftly after they have been reported
- Protection of minors online reinforced; additional bans on targeted advertising for minors as well as targeting based on sensitive data
- Users will be better informed how content is recommended to them
EU negotiators agree on landmark rules to effectively tackle the spread of illegal content online and protect people's fundamental rights in the digital sphere.
On Friday, Parliament and Council reached a provisional political agreement on the Digital Services Act (DSA). Together with the Digital Markets Act, the DSA will set the standards for a safer and more open digital space for users and a level playing field for companies for years to come.
More responsible online platforms
Under the new rules, intermediary services, namely online platforms - such as social media and marketplaces - will have to take measures to protect their users from illegal content, goods and services.
Algorithmic accountability: the European Commission as well as the member states will have access to the algorithms of very large online platforms;
Swift removal of illegal content online, including products, services: a clearer “notice and action” procedure where users will be empowered to report illegal content online and online platforms will have to act quickly;
Fundamental rights to be protected also online: stronger safeguards to ensure notices are processed in a non-arbitrary and non-discriminatory manner and with respect for fundamental rights, including the freedom of expression and data protection;
More responsible online marketplaces: they have to ensure that consumers can purchase safe products or services online, by strengthening checks to prove that the information provided by traders is reliable (“Know Your Business Customer” principle) and make efforts to prevent illegal content appearing on their platforms, including through random checks;
Victims of cyber violence will be better protected especially against non-consensual sharing (revenge porn) with immediate takedowns;
Penalties: online platforms and search engines can be fined up to 6% of their worldwide turnover. In the case of very large online platforms (with more that 45 million users), the EU Commission will have exclusive power to demand compliance;
Fewer burdens and more time to adapt for SMEs: longer period to apply the new rules will support innovation in the digital economy. The Commission will follow closely the potential economic effects of the new obligations on small businesses.
Safer online space for users
New transparency obligations for platforms will allow users to be better informed about how content is recommended to them (recommender systems) and to choose at least one option not based on profiling;
Online advertising: users will have better control over how their personal data are used. Targeted advertising is banned when it comes to sensitive data (e.g. based on sexual orientation, religion, ethnicity);
Protection of minors: platforms accessible to minors will have to take specific measures to protect them, including by fully banning targeted advertising;
Manipulating users’ choices through ‘dark patterns’ will be prohibited: online platforms and marketplaces should not nudge people into using their services, for example by giving more prominence to a particular choice or urging the recipient to change their choice via interfering pop-ups. Moreover, cancelling a subscription for a service should become as easy as subscribing to it;
Compensation: recipients of digital services will have a right to seek redress for any damages or loss suffered due to infringements by platforms.
Harmful content and disinformation
Very large online platforms will have to comply with stricter obligations under the DSA, proportionate to the significant societal risks they pose when disseminating illegal and harmful content, including disinformation.
Very large online platforms will have to assess and mitigate systemic risks and be subject to independent audits each year. In addition, those large platforms that use so-called “recommender systems” (algorithms that determine what users see) must provide at least one option that is not based on profiling;
Special measures in times of crisis: when a crisis occurs, such as a public security or health threat, the Commission may require very large platforms to limit any urgent threats on its platforms. These specific actions are limited to three months.
Quote
“The Digital Services Act will set new global standards. Citizens will have better control over how their data are used by online platforms and big tech-companies. We have finally made sure that what is illegal offline is also illegal online. For the European Parliament, additional obligations on algorithmic transparency and disinformation are important achievements,” said rapporteur Christel Schaldemose (DK, S&D). “These new rules also guarantee more choice for users and new obligations for platforms on targeted ads, including bans to target minors and restricting data harvesting for profiling.”
Next steps
The text will need to be finalised at technical level and verified by lawyer-linguists, before both Parliament and Council give their formal approval. Once this process is completed, it will come into force 20 days after its publication in the EU Official Journal and the rules will start to apply 15 months later.
From 23 to 27 May, a delegation from the EP’s Internal Market Committee will visit several company headquarters (Meta, Google, Apple and others) in Silicon Valley to discuss in person the Digital Services Act package, and other digital legislation in the pipeline, and hear the position of American companies, start-ups, academia and government officials.