Das LG Karlsruhe hat entschieden, dass die Schaltfläche "Bestellung aufgeben" nicht den Anforderungen der Button-Lösung genügt und eine fehlende Kündigungsschaltfläche nach § 312k wettbewerbswidrig ist.
Aus den Entscheidungsgründen: 1. §§ 3, 5a Abs. 1, 5b Abs. 4 UWG i.V.m. § 5 Abs. 1 DDG Die Beklagte hat in der früheren Fassung ihrer Internetseiten dem Verbraucher wesentliche Informationen i.S.v. §§ 5a Abs. 1, 5b Abs. 4 UWG vorenthalten, indem sie gar nicht über ihren gesetzlichen Vertreter informiert und die übrigen Pflichtinformationen gemäß § 5 Abs. 1 DDG durch das Erfordernis jeweils mehrerer Klicks so versteckt hat, dass der Verbraucher auf verschiedenen Wegen zu den einzelnen Teil-Informationen gelangen musste. Damit waren die Informationen teilweise nicht leicht erkennbar und unmittelbar erreichbar i.S.v. § 5 Abs. 1 DDG (vgl. BeckOK InfoMedienR/Ott, 50. Ed. 1.11.2025, DDG § 5 Rn. 15). Ein Nutzer darf in der Regel nicht mehr als zwei Schritte benötigen, um zu den Pflichtangaben zu gelangen, die auf der Zielseite dann an einem gemeinsamen Ort aufzuführen sind (vgl. BeckOK InfoMedienR/Ott, 50. Ed. 1.11.2025, DDG § 5 Rn. 15, 22 m.w.N.).
Nach der Vorschrift des § 312j Abs. 2 BGB, die eine Marktverhaltensregelung darstellt, ist verlangt, dass die zu gebenden Informationen unmittelbar bevor der Verbraucher seine Bestellung abgibt, klar und verständlich in hervorgehobener Weise zur Verfügung zu stellen sind. Es ist also ein zeitlicher und räumlich-funktionaler Zusammenhang zwischen den Pflichtangaben und dem Bestell-Button erforderlich (RegE, BT-Drs. 17/7745, 10 f.; BGH, Beschluss vom 28.11.2019 – I ZR 43/19, GRUR-RS 2019, 35413; OLG München, Urteil vom 31.01.2019 – 29 U 1582/18, MMR 2019, 249 Rn. 22 f.). Daran hat es hier gefehlt, so dass der Unterlassungsanspruch bereits unter diesem Gesichtspunkt gegeben ist. 3. § 3a UWG i.V.m. § 312j Abs. 3 BGB Die frühere Gestaltung des Bestell-Buttons mit den Worten „Bestellung Aufgeben“ [sic] genügte nicht den Anforderungen aus der Marktverhaltensregelung des § 312j Abs. 3 BGB, wonach diese Schaltfläche gut lesbar mit nichts anderem als den Wörtern „zahlungspflichtig bestellen“ oder mit einer entsprechenden eindeutigen Formulierung beschriftet sein muss (vgl. MüKoBGB/Wendehorst, 10. Aufl. 2025, BGB § 312j Rn. 28 m.w.N.). Zwar mag für den Durchschnittsverbraucher aus den Worten „Bestellung aufgeben“ in Zusammenschau mit der Aufstellung der Kosten unmittelbar oberhalb der Schaltfläche erkennbar sein, dass das Aufgeben der Bestellung eine Zahlungspflicht auslöst. Nach der Rechtsprechung des Gerichtshofs der Europäischen Union ist jedoch bei der Prüfung ausschließlich auf die Beschriftung der Schaltfläche abzustellen (EuGH, Urteil vom 07.04.2022 – C-249/21 Fuhrmann-2, NJW 2022, 1439). Nichts anderes ergibt sich auch aus dem Wortlaut der Vorschrift des § 312j Abs. 3 BGB.
a) Die Marktverhaltensregelung des § 312k Abs. 2 BGB ist mit Unionsrecht vereinbar. Einer Vorlage nach Art. 267 AEUV bedarf es nicht. Auf die klägerseits zitierte Entscheidung des OLG Düsseldorf (Urteil vom 23.05.2024 – 20 UKl 3/23, juris Rn. 12 m.w.N.) kann verwiesen werden.
b) Dem begehrten Verbot steht auch nicht das für Anbieter von digitalen Diensten geltende Herkunftslandprinzip entgegen. Zwar wird nach § 3 Abs. 2 DDG der freie Verkehr von digitalen Diensten, die innerhalb des Geltungsbereichs der Richtlinien 2000/31/EG und 2010/13/EU in Deutschland von Diensteanbietern, die in einem anderen Mitgliedstaat niedergelassen sind, geschäftsmäßig angeboten oder verbreitet werden, vorbehaltlich der Absätze 5 bis 7 dieser Vorschrift nicht eingeschränkt. Darin ist in richtlinienkonformer Auslegung ein sachrechtliches Beschränkungsverbot zu erblicken (BGH GRUR 2012, 850 Rn. 25 ff. – www.rainbow.at II; GRUR 2017, 397 Rn. 37 – World of Warcraft II; Köhler/Feddersen/Köhler, 44. Aufl. 2026, Einleitung UWG Rn. 5.9).
Hier greift aber bereits die in § 3 Abs. 3 Nr. 2 DDG geregelte Bereichsausnahme vom Herkunftslandprinzip ein, da Vorschriften für vertragliche Schuldverhältnisse in Bezug auf Verbraucherverträge betroffen sind (vgl. Spindler/Schuster/Kaesling/Nordmeier, 5. Aufl. 2026, DDG § 3 Rn. 27 m.w.N.). Ob zudem im konkreten Fall eine zugelassene Einschränkung nach § 3 Abs. 5 Satz 1 Ziff. 1. c), Ziff. 2. DDG vorliegt (vgl. Spindler/Schuster/Kaesling/Nordmeier, 5. Aufl. 2026, DDG § 3 Rn. 35-41), kann dahinstehen.
c) Im Streitfall stand überhaupt keine Kündigungsschaltfläche zur Verfügung. Ob eine vorherige Anmeldung im Benutzerkonto zumutbar wäre (vgl. MüKoBGB/Wendehorst, 10. Aufl. 2025, BGB § 312k Rn. 15 mit Fn. 22), muss daher nicht entschieden werden.
III. Das von der Beklagten bloß in Aussicht gestellte, zudem auf 2.500,00 € gedeckelte Vertragsstrafeversprechen war ungeeignet, die Wiederholungsgefahr für die beanstandeten Wettbewerbsverstöße entfallen zu lassen. Die Klägerin war auch nicht gehalten, den Entwurf einer solchen Erklärung (K 15) anzunehmen, schon weil ein entsprechender Unterlassungsvertrag angesichts der weitaus zu niedrigen Vertragsstrafenbewehrung keinen ausreichenden Unterlassungsanreiz geboten hätte. Erst aufgrund des (rechtskräftigen) Urteils entfällt die Wiederholungsgefahr.
Die EU-Kommission hat ein Verfahren nach dem DSA gegen X eingeleitet. Dabei geht es um die Risiken im Zusammenhang mit der Einführung der Funktionen von Grok in X in der EU.
Die Pressemitteilung der EU-Kommission: Kommission untersucht Empfehlungssysteme von Grok und X nach dem Gesetz über digitale Dienste
Die Europäische Kommission hat ein neues förmliches Prüfverfahren gegen X im Rahmen des Gesetzes über digitale Dienste eingeleitet. Parallel dazu verlängerte die Kommission ihre laufende Untersuchung, die im Dezember 2023 eingeleitet wurde, um zu prüfen, ob X seinen Verpflichtungen im Bereich des Risikomanagements für Empfehlungssysteme nachkommt.
Im Rahmen der neuen Untersuchung wird bewertet, ob das Unternehmen die Risiken im Zusammenhang mit der Einführung der Funktionen von Grok in X in der EU ordnungsgemäß bewertet und gemindert hat. Dazu gehören Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte in der EU, wie manipulierte sexuell eindeutige Bilder, einschließlich Inhalte, die Material über sexuellen Kindesmissbrauch darstellen können.
Diese Risiken scheinen eingetreten zu sein und den Bürgerinnen und Bürgern in der EU ernsthaften Schaden zuzufügen. Vor diesem Hintergrund wird die Kommission weiter prüfen, ob X seinen Verpflichtungen im Rahmen des Gesetzes über digitale Dienste nachkommt,
- sorgfältige Bewertung und Minderung systemischer Risiken, einschließlich der Verbreitung illegaler Inhalte, negativer Auswirkungen im Zusammenhang mit geschlechtsspezifischer Gewalt und schwerwiegender negativer Folgen für das körperliche und geistige Wohlbefinden, die sich aus der Bereitstellung der Funktionen von Grok auf seiner Plattform ergeben;
- Durchführung und Übermittlung eines Ad-hoc-Risikobewertungsberichts für die Funktionen von Grok im X-Dienst mit kritischen Auswirkungen auf das Risikoprofil von X vor ihrer Einführung an die Kommission.
Unabhängig davon hat die Kommission ihr laufendes förmliches Verfahren gegen X im Dezember 2023 verlängert, um festzustellen, ob X alle Systemrisiken im Sinne des Gesetzes über digitale Dienste, die mit seinen Empfehlungssystemen verbunden sind, ordnungsgemäß bewertet und gemindert hat, einschließlich der Auswirkungen des kürzlich angekündigten Wechsels zu einem auf Grok basierenden Empfehlungssystem.
Wenn diese Versäumnisse nachgewiesen würden, würden sie einen Verstoß gegen Artikel 34 Absätze 1 und 2, Artikel 35 Absatz 1 und Artikel 42 Absatz 2 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Untersuchung durchführen. Die Eröffnung eines förmlichen Verfahrens greift seinem Ausgang nicht vor.
Bei der Vorbereitung dieser Untersuchung hat die Kommission eng mit Coimisiún na Meán, dem irischen Koordinator für digitale Dienste, zusammengearbeitet. Darüber hinaus wird Coimisiún na Meán gemäß Artikel 66 Absatz 3 als nationaler Koordinator für digitale Dienste im Niederlassungsland der EU an dieser Untersuchung beteiligt sein.
Nächste Schritte
Die Kommission wird weiterhin Beweise sammeln, z. B. durch die Übermittlung zusätzlicher Auskunftsersuchen, die Durchführung von Befragungen oder Inspektionen, und kann einstweilige Maßnahmen verhängen, wenn keine nennenswerten Anpassungen am X-Dienst vorgenommen werden.
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen zu ergreifen, z. B. den Erlass eines Beschlusses über die Nichteinhaltung der Vorschriften. Die Kommission ist ferner befugt, jede von X eingegangene Verpflichtung zur Behebung der verfahrensgegenständlichen Probleme zu akzeptieren.
Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihren Befugnissen zur Überwachung und Durchsetzung des Gesetzes über digitale Dienste in Bezug auf die mutmaßlichen Verstöße.
Hintergrund
Grok ist ein vom Anbieter von X entwickeltes Tool für künstliche Intelligenz („KI“). Seit 2024 setzt X Grok auf verschiedene Weise auf seiner Plattform ein. Diese Bereitstellungen ermöglichen es den Benutzern beispielsweise, Text und Bilder zu generieren und den Beiträgen der Benutzer Kontextinformationen zur Verfügung zu stellen.
Als benannte sehr große Online-Plattform (VLOP) im Rahmen des Gesetzes über digitale Dienste ist X verpflichtet, potenzielle Systemrisiken im Zusammenhang mit seinen Diensten in der EU zu bewerten und zu mindern. Zu diesen Risiken gehören die Verbreitung illegaler Inhalte und potenzielle Bedrohungen der Grundrechte, einschließlich Minderjähriger, die von ihrer Plattform und ihren Funktionen ausgehen.
Diese Untersuchung ergänzt und erweitert die am 18. Dezember 2023 eingeleitete Untersuchung, die sich auf die Funktionsweise des Melde- und Aktionsmechanismus von X, seine Minderungsmaßnahmen gegen illegale Inhalte wie terroristisches Material in der EU und die mit seinen Empfehlungssystemen verbundenen Risiken konzentriert.
Diese Verfahren betrafen auch die Verwendung von irreführendem Design, die mangelnde Werbetransparenz und den unzureichenden Datenzugang für Forscher, für die die Kommission am 5. Dezember 2025 einen Beschluss über die Nichteinhaltung der Vorschriften mit einer Geldbuße von X 120 Mio. EUR erließ. Am 19. September richtete die Kommission an X ein Auskunftsersuchen in Bezug auf Grok, einschließlich Fragen zu den von @grok Mitte 2025 generierten antisemitischen Inhalten.
Auf nationaler Ebene steht Hilfe und Unterstützung für Personen zur Verfügung, die von KIgenerierten Bildern, einschließlich Darstellungen sexuellen Kindesmissbrauchs oder nicht einvernehmlichen intimen Bildern, negativ betroffen sind. Im Rahmen des Gesetzes über digitale Dienste haben die Bürgerinnen und Bürger das Recht, beim Koordinator für digitale Dienste ihres Mitgliedstaats eine Beschwerde über einen Verstoß gegen das Gesetz über digitale Dienste einzureichen.
Die EU-Kommission hat gegen die EU-Kommission gegen die Plattform X eine Geldbuße in Höhe von 120 Mio. EUR nach dem Digital Services Act (DSA) verhängt.
Die Pressmitteilung der EU-Kommission Gesetz über digitale Dienste: Kommission verhängt Geldbuße in Höhe von 120 Mio. EUR gegen X
Die Kommission hat heute eine Geldbuße in Höhe von 120 Mio. EUR gegen X verhängt, da das Unternehmen gegen seine Transparenzpflichten aus dem Gesetz über digitale Dienste verstoßen hat. Zu den Verstößen gehören die irreführende Gestaltung seines blauen Häkchens, die mangelnde Transparenz seines Werbearchivs und das Versäumnis, Forschenden Zugang zu öffentlichen Daten zu gewähren.
Irreführende Gestaltung des blauen Häkchens von X
X verwendet das blaue Häkchen für „verifizierte Konten“. Dadurch werden die Nutzerinnen und Nutzer getäuscht. Dies verstößt nach dem Gesetz über digitale Dienste gegen die Verpflichtung von Online-Plattformen, keine irreführenden Gestaltungspraktiken bei ihren Diensten anzuwenden. Auf X kann der Status „verifiziert“ von jedem gekauft werden, ohne dass das Unternehmen angemessen überprüft, wer hinter dem Konto steckt, wodurch es den Nutzerinnen und Nutzern erschwert wird, die Echtheit der Konten und der Inhalte zu beurteilen, mit denen sie in Berührung kommen. Diese Irreführung setzt die Nutzerinnen und Nutzer Betrug, einschließlich Identitätsbetrug, sowie anderen Formen der Manipulation durch böswillige Akteure aus. Das Gesetz über digitale Dienste schreibt zwar keine Überprüfung der Nutzerinnen und Nutzer vor, jedoch verbietet es Online-Plattformen ausdrücklich, fälschlicherweise zu behaupten, dass Nutzerinnen und Nutzer überprüft wurden, wenn eine solche Überprüfung nicht stattgefunden hat.
Mangelnde Transparenz des Werbearchivs von X
Das Werbearchiv von X erfüllt nicht die Transparenz- und Barrierefreiheitsanforderungen des Gesetzes über digitale Dienste. Zugängliche und durchsuchbare Werbearchive sind die Voraussetzung dafür, dass Forschende und die Zivilgesellschaft Betrug, hybriden Kampagnen und Bedrohungen, einer koordinierten Informationsverbreitung und fingierten Anzeigen nachgehen können.
X verfügt über Gestaltungsmerkmale und Zugangsbarrieren, wie etwa übermäßige Verzögerungen bei Bearbeitungsvorgängen, die den Zweck von Werbearchiven untergraben. Dem Werbearchiv von X fehlt es zudem an wesentlichen Informationen wie Inhalt und Thema der Werbung sowie Angaben zur juristischen Person, die dafür zahlt. Dies hindert Forschende und die Öffentlichkeit daran, potenzielle Risiken in der Online-Werbung unabhängig zu prüfen.
Versäumnis, Forschenden Zugang zu öffentlichen Daten zu gewähren
X kommt seiner Verpflichtung aus dem Gesetz über digitale Dienste, Forschenden Zugang zu den öffentlichen Daten der Plattform zu gewähren, nicht nach. So dürfen berechtigte Forschende gemäß den Nutzungsbedingungen von X beispielsweise nicht unabhängig auf seine öffentlichen Daten zugreifen, auch nicht durch Scraping. Darüber hinaus schaffen die Verfahren von X für den Zugang von Forschenden zu öffentlichen Daten unnötige Hindernisse, wodurch die Erforschung verschiedener systemischer Risiken in der Europäischen Union erheblich beeinträchtigt wird.
Die heute verhängte Geldbuße wurde unter Berücksichtigung der Art, der Schwere für die betroffenen Nutzerinnen und Nutzer in der EU und der Dauer dieser Verstöße berechnet.
Dies ist der erste Nichteinhaltungsbeschluss im Rahmen des Gesetzes über digitale Dienste.
Nächste Schritte
X hat nun 60 Arbeitstage Zeit, die Kommission darüber zu unterrichten, welche spezifischen Maßnahmen es ergreifen will, um den Verstoß gegen Artikel 25 Absatz 1 des Gesetzes über digitale Dienste hinsichtlich der irreführenden Verwendung blauer Häkchen abzustellen.
X hat 90 Arbeitstage Zeit, um der Kommission einen Aktionsplan mit den Maßnahmen vorzulegen, die erforderlich sind, um die Verstöße gegen Artikel 39 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste hinsichtlich des Werbearchivs und des Zugangs von Forschenden zu öffentlichen Daten anzugehen. Das Gremium für digitale Dienste hat nach Eingang des Aktionsplans von X einen Monat Zeit, um seine Stellungnahme abzugeben. Die Kommission hat daraufhin einen weiteren Monat Zeit, um ihre endgültige Entscheidung zu treffen und eine angemessene Durchführungsfrist festzulegen.
Wird dem Nichteinhaltungsbeschluss nicht nachgekommen, können Zwangsgelder verhängt werden. Die Kommission arbeitet weiterhin mit X zusammen, um die Einhaltung des Beschlusses und des Gesetzes über digitale Dienste im Allgemeinen sicherzustellen.
Hintergrund
Am 18. Dezember 2023 leitete die Kommission ein förmliches Verfahren ein, um zu prüfen, ob X hinsichtlich der Verbreitung illegaler Inhalte und der Wirksamkeit der Maßnahmen zur Bekämpfung der Manipulation von Informationen möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Die Untersuchungen diesbezüglich dauern an.
Dieses Verfahren betraf auch die irreführende Gestaltung, die mangelnde Transparenz der Werbung und den unzureichenden Datenzugang für Forschende. Dazu hat die Kommission am 12. Juli 2024 vorläufige Feststellungen und heute einen Nichteinhaltungsbeschluss angenommen.
Die EU-Kommission hat entschieden, dass X / Twitter kein Gatekeeper im Sinne des Digital Markets Act (DMA) ist, da der Onlinedienst kein wichtiges Gateway für Geschäftsnutzer ist, um Endnutzer zu erreichen.
Die Pressemitteilung der EU-Kommission: EU-Kommission: Onlinedienst X ist kein zentraler Plattformdienst nach dem DMA
Die EU-Kommission hat entschieden, dass der Onlinedienst X nicht als zentraler Plattformdienst nach dem Gesetz über digitale Märkte (Digital Markets Act, DMA) eingestuft werden sollte.
Die heutige Entscheidung folgt auf eine eingehende Marktuntersuchung, die am 13. Mai 2024 eingeleitet wurde, nachdem X seinen Status als potenzieller Gatekeeper angemeldet hatte.
Zusammen mit der Notifizierung reichte X auch Gegenargumente ein, in denen erläutert wurde, warum sein Onlinedienst für soziale Netzwerke seiner Ansicht nach nicht als wichtiges Gateway zwischen Unternehmen und Verbrauchern gelten sollte, selbst wenn davon ausgegangen wird, dass X die im DMA festgelegten quantitativen Schwellenwerte erfüllt.
Entscheidung der Kommission
Nach einer gründlichen Bewertung aller Argumente, einschließlich der Beiträge der relevanten Interessengruppen, und nach Rücksprache mit dem Beratungsausschuss für digitale Märkte kam die EU-Kommission zu dem Schluss, dass X in der Tat nicht als Gatekeeper in Bezug auf seinen Online-Dienst für soziale Netzwerke gilt, da die Untersuchung ergab, dass X kein wichtiges Gateway für Geschäftsnutzer ist, um Endnutzer zu erreichen.
Die Kommission wird die Entwicklungen auf dem Markt in Bezug auf diesen Dienst weiterhin beobachten, falls sich wesentliche Änderungen ergeben sollten.
Die nichtvertrauliche Fassung der Entscheidung wird auf der DMA-Website der Kommission veröffentlicht.
Die EU-Kommission kommt nach vorläufiger Einschätzung zu dem Ergebnis, dass die Kontoverifizierung durch X / Twitter allein durch Abschluss eines kostenpflichtigen Abos gegen den Digital Services Act (DSA) verstößt.
Die Pressemitteilung der EU-Kommission: Kommission übermittelt X vorläufige Feststellungen wegen Verstoßes gegen das Gesetz über digitale Dienste
Die Kommission hat X heute von ihrer vorläufigen Auffassung in Kenntnis gesetzt, dass sie in Bereichen im Zusammenhang mit Dark Patters, Transparenz der Werbung und Datenzugang für Forscher gegen das Gesetz über digitale Dienste verstößt.
Transparenz und Rechenschaftspflicht in Bezug auf die Moderation von Inhalten und Werbung stehen im Mittelpunkt des Gesetzes über digitale Dienste. Auf der Grundlage einer eingehenden Untersuchung, die unter anderem die Analyse interner Unternehmensunterlagen, Befragungen von Sachverständigen und die Zusammenarbeit mit den nationalen Koordinatoren für digitale Dienste umfasste, hat die Kommission in drei Fällen vorläufig festgestellt, dass die Vorschriften nicht eingehalten wurden:
Erstens gestaltet und betreibt X seine Schnittstelle für die „verifizierten Konten“ mit dem „Blue Checkmark“ in einer Weise, die nicht der Branchenpraxis entspricht und die Nutzer täuscht. Da jedermann einen solchen „überprüften“ Status abonnieren kann, beeinträchtigter die Fähigkeit der Nutzer, freie und fundierte Entscheidungen über die Authentizität der Konten und die Inhalte, mit denen sie interagieren, zu treffen. Es gibt Belege für motivierte böswillige Akteure, die das „verifizierte Konto“ missbrauchen, um Nutzer zu täuschen.
Zweitens hält X nicht die erforderliche Transparenz in Bezug auf Werbung ein, da es kein durchsuchbares und zuverlässiges Werbearchiv bietet, sondern Gestaltungsmerkmale und Zugangsbarrieren einrichtet, die das Repository für seine Transparenzzwecke gegenüber den Nutzern ungeeignet machen. Insbesondere ermöglicht das Design nicht die erforderliche Überwachung und Erforschung neu auftretender Risiken, die sich aus dem Online-Vertrieb von Werbung ergeben.
Drittens gewährt X Forschern keinen Zugang zu seinen öffentlichen Daten gemäß den im Gesetz über digitale Dienste festgelegten Bedingungen. Insbesondere untersagt X förderfähigen Forschern, unabhängig auf seine öffentlichen Daten zuzugreifen, z. B. durch Verschrotten, wie in seinen Nutzungsbedingungen angegeben. Darüber hinaus scheint das Verfahren von X, förderfähigen Forschern Zugang zu seiner Anwendungsprogrammierschnittstelle (API) zu gewähren, Forscher von der Durchführung ihrer Forschungsprojekte abzuhalten oder ihnen keine andere Wahl zu lassen, als unverhältnismäßig hohe Gebühren zu zahlen.
Mit der Übermittlung der vorläufigen Feststellungen teilt die Kommission X ihren vorläufigen Standpunkt mit, dass sie gegen das Gesetz über digitale Dienste verstößt. Dies greift dem Ergebnis der Untersuchung nicht vor, da X nun die Möglichkeit hat, seine Verteidigungsrechte auszuüben, indem sie die Unterlagen in der Untersuchungsakte der Kommission prüft und schriftlich auf die vorläufigen Feststellungen der Kommission antwortet. Parallel dazu wird das Europäische Gremium für digitale Dienste konsultiert.
Sollte sich die vorläufige Auffassung der Kommission letztlich bestätigen, würde die Kommission einen Verstoßbeschluss erlassen, in dem sie feststellt, dass X gegen die Artikel 25, 39 und 40 Absatz 12 des Gesetzes über digitale Dienste verstößt. Eine solche Entscheidung könnte zu Geldbußen von bis zu 6 % des weltweiten Jahresumsatzes des Anbieters führen und den Anbieter anweisen, Maßnahmen zu ergreifen, um den Verstoß zu beheben. Eine Entscheidung wegen Nichteinhaltung kann auch einen erweiterten Überwachungszeitraum auslösen, um die Einhaltung der Maßnahmen sicherzustellen, die der Anbieter zu ergreifen beabsichtigt, um den Verstoß zu beheben. Die Kommission kann auch Zwangsgelder verhängen, um eine Plattform zur Einhaltung der Vorschriften zu zwingen.
Hintergrund
X, vormals Twitter, wurde am 25. April 2023 im Rahmen des EU-Gesetzes über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem sie erklärt hatte, monatlich mehr als 45 Millionen aktive Nutzer in der EU zu erreichen.
Am 18. Dezember 2023 leitete die Kommission ein förmliches Verfahren ein, um zu prüfen, ob X möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit der Verbreitung illegaler Inhalte und der Wirksamkeit der zur Bekämpfung der Informationsmanipulation ergriffenen Maßnahmen zusammenhängen, für die die Untersuchung fortgesetzt wird, sowie Dark Patterns, Transparenz der Werbung und Datenzugang für Forscher, die Gegenstand der heute angenommenen vorläufigen Feststellungen sind.
Die Kommission hat auch ein Whistleblower-Tool eingerichtet, das es Mitarbeitern und anderen Personen mit Wissen ermöglicht, sich anonym mit der Kommission in Verbindung zu setzen, um zur Überwachung der Einhaltung durch die Kommission durch benannte sehr große Online-Plattformen/VLOSE beizutragen.
Darüber hinaus hat die Kommission im Februar und April 2024 ein förmliches Verfahren gegen TikTok, AliExpress im März 2024 und Meta im April und Mai 2024 eingeleitet.
Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.
Die Pressemitteilung des EU-Kommission: The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.
On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.
The proceedings will focus on the following areas:
The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.
The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.
The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.
A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.
If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.
These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.
Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.
The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.
The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.
The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).
Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.
As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:
Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.
Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.
Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data.
Das BfH hat ein Bußgeldverfahren nach dem NetzDG gegen Twitter wegen systemischen Versagens des Beschwerdemanagements beim Umgang mit Nutzerbeschwerden wegen rechtswidriger Inhalte
Die Pressemitteilung des BfJ: Bundesamt für Justiz führt Bußgeldverfahren gegen die Twitter International Unlimited Company wegen unzureichenden Umgangs mit Nutzerbeschwerden
Das Bundesamt für Justiz (BfJ) hat ein Bußgeldverfahren nach dem Netzwerkdurchsetzungsgesetz (NetzDG) gegen die Twitter International Unlimited Company eingeleitet. Aus Sicht des BfJ liegen hinreichende Anhaltspunkte für Versäumnisse im Beschwerdemanagement der Anbieterin von Twitter in Deutschland vor.
Die Anbieterin von Twitter unterliegt den Vorschriften des NetzDG. Dem BfJ liegen hinreichende Anhaltspunkte dafür vor, dass sie gegen die gesetzliche Pflicht zum Umgang mit Beschwerden über rechtswidrige Inhalte verstoßen hat und es sich dabei um ein bußgeldbewehrtes systemisches Versagen im Beschwerdemanagement der Anbieterin handelt.
Fehlerhafter Umgang mit Nutzerbeschwerden
Die Anbieterin von Twitter ist nach dem NetzDG verpflichtet, ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden von Nutzerinnen und Nutzern über rechtswidrige Inhalte vorzuhalten. Sie muss unter anderem unverzüglich von einem gemeldeten Inhalt Kenntnis nehmen, prüfen, ob dieser rechtswidrig im Sinne des NetzDG ist, und einen rechtswidrigen Inhalt, unter Beachtung der gesetzlichen Frist von regelmäßig sieben Tagen bzw. 24 Stunden im Falle offensichtlicher Rechtswidrigkeit, löschen oder den Zugang zu ihm sperren. Ein Inhalt gilt nach dem NetzDG als rechtwidrig, wenn er einen der in § 1 Absatz 3 NetzDG aufgeführten Tatbestände des Strafgesetzbuchs, wie beispielsweise Volksverhetzung, Beleidigung oder Bedrohung, erfüllt.
Dem BfJ wurden zahlreiche Inhalte gemeldet, die auf Twitter veröffentlicht wurden, nach Einschätzung der Behörde rechtswidrig sind und trotz Nutzerbeschwerden nicht innerhalb der gesetzlich vorgesehenen Fristen von der Anbieterin gelöscht oder gesperrt wurden. Hierauf gründet das eingeleitete Bußgeldverfahren.
Systemisches Versagen des Beschwerdemanagements
Bei vereinzelten Verstößen von Anbieterinnen und Anbietern sozialer Netzwerke gegen die Prüf- und Löschpflichten des NetzDG kann in der Regel noch nicht angenommen werden, dass kein wirksames Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte vorgehalten wird. Bußgeldbewehrt ist aber ein systemisches Versagen des Beschwerdemanagements, das vorliegt, wenn Verfehlungen gegen die einschlägigen Vorgaben des NetzDG zeit- und sachnah wiederholt auftreten.
Die dem Bußgeldverfahren gegen die Anbieterin von Twitter zugrundeliegenden Inhalte weisen einen engen zeitlichen und sachlichen Zusammenhang auf und sind daher geeignet, ein systemisches Versagen im Beschwerdemanagement der Anbieterin zu begründen. Sie wurden in einem Zeitraum von rund vier Monaten auf Twitter veröffentlicht und der Anbieterin von Twitter von Nutzerinnen und Nutzern als rechtswidrig angezeigt. Alle Inhalte enthalten ähnlich gelagerte, nicht gerechtfertigte, ehrverletzende Meinungsäußerungen, die sich sämtlich gegen dieselbe Person richten. Sie erfüllen nach Einschätzung des BfJ den Tatbestand der Beleidigung.
Anhörung der Anbieterin und Vorabentscheidungsverfahren vor dem Amtsgericht Bonn
Das BfJ hat der Anbieterin von Twitter nunmehr zu dem Vorwurf eines systemischen Versagens des Beschwerdemanagements Gelegenheit zur Stellungnahme gegeben.
Im weiteren Verfahren wird das BfJ die in der Stellungnahme vorgebrachten Argumente prüfen. Sollte das BfJ zum Ergebnis kommen, dass der Vorwurf des rechtswidrigen Verhaltens weiterhin berechtigt ist, wird das BfJ beim Amtsgericht Bonn die Einleitung eines Vorabentscheidungsverfahrens beantragen und zugleich die Stellungnahme der Anbieterin vorlegen.
Vor dem Erlass eines Bußgeldbescheids gegen Anbieter sozialer Netzwerke wegen fehlerhafter Nichtlöschung oder Nichtsperrung rechtswidriger Inhalte soll nach § 4 Absatz 5 NetzDG die gerichtliche Feststellung der Rechtswidrigkeit der Inhalte herbeigeführt werden. Zuständig für dieses sogenannte Vorabentscheidungsverfahren ist das Amtsgericht Bonn.
Sollte das Amtsgericht Bonn die Rechtswidrigkeit der Inhalte feststellen, kann das BfJ eine Geldbuße gegen die Anbieterin von Twitter festsetzen.
Das LG Frankfurt hat wie erwartet entschieden, dass Twitter wie Facebook bei ehrverletzenden Inhalten auch kerngleiche Tweets und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.
Die Pressemitteilung des Gerichts: Persönlichkeitsrecht - Ehrverletzung durch herabwürdigenden Tweet
Twitter muss bei einem konkreten Hinweis auf eine Persönlichkeitsrechtsverletzung auch kerngleiche Äußerungen entfernen.
Das Landgericht Frankfurt am Main hat heute entschieden: Betroffene können von Twitter verlangen, dass falsche oder ehrverletzende Tweets über sie gelöscht werden. Auch sinngemäße Kommentare mit identischem Äußerungskern muss Twitter entfernen, sobald es von der konkreten Persönlichkeitsrechtsverletzung Kenntnis erlangt.
Im September 2022 erschienen auf Twitter diverse Kommentare, in denen wahrheitswidrig behauptet wurde, der Antisemitismusbeauftragte des Landes Baden-Württemberg habe „eine Nähe zur Pädophilie“ und er habe „einen Seitensprung gemacht“. Außerdem wurde über ihn verbreitet, er sei in „antisemitische Skandale“ verstrickt und er sei „Teil eines antisemitischen Packs“.
Die zuständige Pressekammer des Landgerichts Frankfurt am Main stellte in einem Eilverfahren fest, dass diese ehrenrührigen Behauptungen unwahr sind. Die Bezeichnung als Antisemit sei zwar zunächst eine Meinungsäußerung. Sie sei aber jedenfalls in dem gewählten Kontext rechtswidrig, denn sie trage nicht zur öffentlichen Meinungsbildung bei und ziele erkennbar darauf ab, in emotionalisierender Form Stimmung gegen den Antisemitismusbeauftragten zu machen.
Nachdem der Antisemitismusbeauftragte die Entfernung dieser Kommentare verlangt hat, hätte Twitter ihre Verbreitung unverzüglich unterlassen und einstellen müssen. Darüber hinaus entschied die Kammer: „Das Unterlassungsgebot greift nicht nur dann, wenn eine Äußerung wortgleich wiederholt wird, sondern auch, wenn die darin enthaltenen Mitteilungen sinngemäß erneut veröffentlicht werden.“ Unter weiter: „Die Äußerungen werden nicht in jeglichem Kontext untersagt. Betroffen sind nur solche Kommentare, die als gleichwertig anzusehen sind und die trotz gewisser Abweichungen einen identischen Äußerungskern aufweisen.“
Twitter werde damit auch keine allgemeine Monitoring-Pflicht im Hinblick auf seine rund 237 Mio. Nutzer auferlegt. Eine Prüfpflicht bestehe nämlich nur hinsichtlich der konkret beanstandeten Persönlichkeitsrechtsverletzung. „Das deutsche Recht mutet jedem Verpflichteten eines Unterlassungsgebots zu, selbst festzustellen, ob in einer Abwandlung das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt und damit kerngleich ist. Twitter befindet sich damit in keiner anderen Situation, als wenn eine bestimmte Rechtsverletzung gemeldet wird. Auch in diesem Fall muss Twitter prüfen, ob diese Rechtsverletzung eine Löschung bedingt oder nicht“, so die Vorsitzende in der Urteilsbegründung.
Als zulässig erachtete die Kammer indes die Äußerung eines Nutzers, wonach der Antisemitismusbeauftragte des Landes Baden-Württemberg in die jährlich vom Wiesenthal-Zentrum in Los Angeles veröffentlichte Liste der größten Antisemiten weltweit aufgenommen worden ist. Unabhängig davon, ob die Aufnahme in diese Liste gerechtfertigt sei, dürfe darüber informiert werden. Dagegen müsse sich der Antisemitismusbeauftragte im öffentlichen Meinungskampf zur Wehr setzen.
Das Urteil (Az. 2-03 O 325/22) ist nicht rechtskräftig. Es kann mit der Berufung zum Oberlandesgericht Frankfurt am Main angefochten werden. Die Entscheidung wird in Kürze unter www.lareda.hessenrecht.hessen.de abrufbar sein.
Ergänzender Hinweis:
Dieselbe Pressekammer des Landgerichts Frankfurt am Main hatte mit Urteil vom 8.4.2022 (Az.: 2-03 O 188/21) entschieden, dass in einer Wort-Bild-Kombination (sog. „Meme“) unterge-schobene Falschzitate auf Facebook auch ohne erneuten Hinweis gelöscht werden müssen, wenn sie einen kerngleichen Inhalt aufweisen. Geklagt hatte dort MdB Renate Künast.