Skip to content

OLG Bamberg: TikTok verstößt gegen Art. 16, 27 und 38 des Digital Services Act (DSA) – Mängel bei Feed-Deaktivierung und Meldeverfahren für rechtswidrige Inhalte

OLG Bamberg
Urteil vom 18.03.2026
3 UKl 5/25 e
TikTok / Bytedance


Das OLG Bamberg hat entschieden, dass die Plattform TikTok gegen Art. 16, 27 und 38 des Digital Services Act (DSA) verstößt, da die Option zur Deaktivierung personalisierter Feeds nicht „leicht zugänglich“ platziert ist und das Meldesystem für rechtswidrige Inhalte durch eine unübersichtliche Menüführung die notwendige Benutzerfreundlichkeit vermissen lässt.

Aus den Entscheidungsgründen:
1. Die Klage ist zulässig.

a. Das Oberlandesgericht Bamberg ist zur Entscheidung des Rechtsstreits international, sachlich und örtlich zuständig.

aa. Die deutsche Gerichtsbarkeit ist international zuständig. Für Verbandsklagen, die andere Verstöße gegen Verbraucherschutzgesetze als die Verwendung missbräuchlicher Vertragsklauseln betreffen, gilt der Gerichtsstand der unerlaubten Handlung nach Art. 7 Nr. 2 EuGVO (Herberger/Martinek/Rüßmann/Weth/Würdinger/Baetge, jurisPK-BGB, 11. Aufl. 2026, Stand: 01.03.2026, § 6 UKlaG, Rn. 6; MüKoZPO/Micklitz/Rott, 6. Aufl. 2022, UKlaG § 6 Rn. 11 f.). Da sich die streitgegenständliche Webseite der Beklagten auch an Nutzer in der Bundesrepublik richtet, ist die hiesige internationale Zuständigkeit eröffnet.

bb. Die sachliche und örtliche Zuständigkeit des OLG Bamberg folgt für den Unterlassungsantrag zu Ziff. 1 aus § 6 Abs. 1 S. 1 Nr. 2 UKlaG i.V.m. § 13a Abs. 1 GVG. Die Beklagte verfügt über keine gewerbliche Niederlassung und keinen Wohnsitz im Inland. Zum durch die Webseite angesprochenen Nutzerkreis gehören auch Bürger in Bayern, so dass ein Handlungsort (auch) hier gegeben ist. Gem. § 2 der gerichtlichen Zuständigkeitsverordnung Justiz – GZVJu Bayern besteht eine bayernweite Zuständigkeitskonzentration beim OLG Bamberg.

Auch der Klageantrag zu Ziff. 2 unterfällt der erstinstanzlichen Sonderzuständigkeit des Senats nach § 6 Abs. 1 S. 1 UKlaG, da der geltend gemachte Ersatzanspruch für die Abmahnkosten „nach diesem Gesetz“ (§ 5 UKlaG i. V. m. § 13 Abs. 3 UWG) verfolgt wird (vgl. OLG Frankfurt, Urteil vom 10.07.2025 – 6 UKl 14/24, NJW 2025, 3233, 3234 Rn. 19; OLG Koblenz, Urteil vom 05.12.2024 – 2 UKl 1/23, Rn. 55, juris; OLG Karlsruhe, Urteil vom 21.11.2024 – 12 UKl 1/24, GRUR-RR 2025, 254, 255 Rn. 28).

b. Der Kläger ist klagebefugt. Er beschränkt seine Klage ausweislich seines Antrags entgegen der Behauptung der Beklagten ausdrücklich auf Handlungen gegenüber Verbrauchern und hält sich damit sowohl an die Anforderung eines Handelns im Interesse des Verbraucherschutzes gem. § 2 Abs. 1 S. 1 UKlaG als auch an seinen Satzungszweck. Unabhängig davon stellt das Interesse des Verbraucherschutzes gem. § 2 Abs. 1 S. 1 UKlaG nach überwiegender Auffassung eine materiellrechtliche Beschränkung des Unterlassungsanspruchs und keine Prozessvoraussetzung dar (vgl. Köhler/Feddersen/Köhler/Alexander, UWG, 44. Aufl. 2026, UKlaG § 2 Rn. 84 m. w. Nachw.). Wird dem gefolgt, was hier nicht entschieden werden muss, so hätte ein fehlendes Verbraucherschutzinteresse damit keine Unzulässigkeit der Klage zur Folge.

c. Dem Kläger fehlt auch nicht wegen Vorrangs der europäischen Kontrollmechanismen die Klage- und Sachbefugnis, um aus § 3 Abs. 1 Nr. 1 i.V.m. § 2 Abs. 1 S. 1, Abs. 2 Nr. 57 UKlaG gegen die Beklagte vorzugehen.

Zu Recht weist die Beklagte zwar darauf hin, dass die Einhaltung der DSA als Akt europäischen Rechts grundsätzlich mit Mitteln des öffentlichen Rechts durch die Koordinatoren für digitale Dienste erfolgt (Art. 51 und Art. 56 Abs. 1 DSA), wobei gem. Art. 56 Abs. 2, 3 DSA für Verstöße durch sehr große Plattform- und Suchmaschinenanbieter im Sinne des Art. 33 DSA die Kommission ausschließlich zuständig ist (vgl. NK-DSA/Grisse, 1. Aufl. 2023, Art. 27 Rn. 51). Dies entzieht sie aber nicht der Kompetenz verbraucherschutzrechtlicher Überprüfung im Rahmen von Verfahren nach dem UKlaG. Wie der Schadensersatzanspruch des Nutzers gem. Art. 54 DSA belegt, schließt die öffentlichrechtliche Aufsicht eine zivilrechtliche Rechtsdurchsetzung nicht generell aus (Grisse a. a. O., Rn. 52; Kraul/Bartels, Das neue Recht der digitalen Dienste, 1. Aufl. 2023, § 5 Rn. 119 f.). Dies sieht die Beklagte im Grundsatz nicht anders, hält aber den Pauschalverweis des § 2 Abs. 2 Nr. 57 UKlaG für zu weitgehend und meint, einem Verbraucherschutzverband fehle die Klagebefugnis, wenn den gerügten Verstößen gegen die DSA keine verbraucherschützende Relevanz zukomme.

Der DSA ist in § 2 Abs. 2 Nr. 57 UKlaG ausdrücklich, und zwar ohne Einschränkung, als Verbraucherschutzgesetz genannt. Dies ist konsequent, denn grundsätzlich ist der DSA in besonderem Maße mit den Zielen des Verbraucherschutzes verbunden (KG, Beschluss vom 25.08.2025 – 10 W 70/25, WRP 2025, 1457, 1458 Rn. 17; HdB-VerbraucherR/Kroschwald, 4. Aufl. 2026, § 3b Rn. 48), wenngleich er auch nicht verbraucherschützende Vorschriften enthält. Dies hebt der Verordnungsgeber mit der Passage in Art. 1 Abs. 1 DSA ausdrücklich hervor und ergibt sich auch aus Erwägungsgrund 3.

Die Klagebefugnis wäre dem Kläger daher nur bei einer teleologischen Reduktion des § 2 Abs. 1 S. 1, Abs. 2 Nr. 57 UKlaG abzusprechen. Die Frage, ob einem Verbraucherverband die Klagebefugnis ausnahmsweise fehlt, soweit er sich auf einzelne Vorschriften der DSA beruft, denen materiell kein verbraucherschützender Gehalt zukommt – in diesem Fall dürfte es allerdings regelmäßig am Handeln im Interesse des Verbraucherschutzes gem. § 2 Abs. 1 S. 1 UKlaG fehlen –, muss im gegenständlichen Rechtsstreit nicht beantwortet werden. Jedenfalls den hier im Raum stehenden Normen Art. 16 und 27, 38 DSA kommt nämlich verbraucherschützender Charakter zu.

aa. Das Verfahren zur De-Personalisierung der Feedsverwaltung gem. Art. 27 Abs. 3, 38 DSA dient dem Datenschutz der Nutzer (Art. 3 lit. b DSA), zu denen selbstverständlich in großem Umfang auch Verbraucher gehören (vgl. BeckOK UWG/Günther, 30. Ed. 01.07.2025, UKlaG § 2 Rn. 72). Die Bedeutung der De-Personalisierung kann aus Sicht des Verbraucherschutzes kaum unterschätzt werden, denn sie dient dem Erkennen, Vermeiden oder Reduzieren und Steuern systemischer Risiken, vgl. Art. 34 Abs. 1 DSA (HdB-VerbraucherR/Kroschwald, 4. Aufl. 2026, § 3b Rn. 92). Gerade vor dem Hintergrund der besonderen Bedeutung des Verbraucherschutzes für den DSA (Art. 1 Abs. 1 DSA) liegt es fern, die Zielrichtung des Art. 38 DSA vorrangig im Schutz des Binnenmarkts und fairen Wettbewerbs zu sehen und dem Verbraucherschutz nur eine Neben- oder gar bloße Reflexwirkung zuzusprechen.

Es überzeugt nicht, Art. 38 DSA den verbraucherschützenden Charakter deswegen abzusprechen, weil die Vorschrift nur sehr große Online-Plattformen bzw. -Suchmaschinen betrifft (so aber Steinrötter, Verbraucherschutz-Verbandsklagen zur Durchsetzung des Digital Services Act, MMR 2026, 3, 8). Für eine Einstufung als verbraucherschützende Vorschrift ist nicht erforderlich, dass es sich um das alleinige Ziel handelt. Der Verordnungsgeber ist zu einer Abwägung berechtigt, die ihn vorliegend zu dem Ergebnis führen durfte, dass die Marktmacht der sehr großen Online-Anbieter mit der daraus folgenden Gefährdung der Allgemeinheit zusätzlich zu den alle Anbieter treffenden Verbraucherschutzinteressen eine besondere Verpflichtung zur Einrichtung eines De-Personalisierungsverfahrens rechtfertigt.

Zudem verengt es den Blick unsachgemäß, allein auf den verbraucherschützenden Charakter des Art. 38 DSA abzustellen. Art. 38 DSA ist eine Ergänzung zu Art. 27 DSA. Die Verpflichtung, dem Nutzer bei Existenz mehrerer Empfehlungssysteme den jederzeitigen Wechsel zu ermöglichen und diese Funktion unmittelbar und leicht zugänglich zu halten, folgt nicht aus Art. 38 DSA, sondern aus Art. 27 Abs. 3 S. 2 DSA. Dieser Absatz wiederum bezieht sich auf Art. 27 Abs. 1, Abs. 2 DSA (Transparenz der Empfehlungssysteme), einer Norm, die selbst von Autoren, die eine verbraucherschützende Wirkung des Art. 38 DSA ablehnen, grundsätzlich als Verbraucherschutzvorschrift anerkannt wird (namentlich Steinrötter, MMR 2026, 3, 8 f.). Es wäre widersinnig und wird soweit ersichtlich auch nicht vertreten, dass die Transparenz der Empfehlungssysteme gem. Art. 27 Abs. 1, Abs. 2 DSA verbraucherschützend ist, die Möglichkeit zum Wechsel zwischen den Systemen und die Verpflichtung zum klaren und verständlichen Hinweis gem. Art. 27 Abs. 3 DSA aber nicht.

Aus diesem Grund kann sich die Beklagte auch nicht mit Erfolg auf Art. 56 Abs. 2 DSA stützen. Diese Norm verleiht der Kommission ausschließliche Befugnisse, Kapitel III Abschnitt 5 zu überwachen und durchzusetzen. In diesem Abschnitt ist Art. 38 DSA enthalten, aber nicht Art. 27 DSA. Zudem betrifft Art. 56 DSA nur das Verhältnis von Kommission und mitgliedsstaatlichen Behörden im Feld der Überwachung und Durchsetzung der Anbieterpflichten (Art. 51, Art. 65 ff. DSA, vgl. NK-DSA/Hofmann/Raue, 1. Aufl. 2023, Art. 56 Rn. 1, 3).

bb. Auch die Vorschrift des Art. 16 Abs. 1 S. 2, 2 S. 2 lit. c DSA dient – über eine bloße Neben- oder Reflexwirkung hinaus – dem Verbraucherschutz.

Eine wesentliche Funktion des Melde- und Abhilfeverfahrens gem. Art. 16 DSA ist die Konkretisierung der Voraussetzungen für die allgemeine Haftungsprivilegierung nach Art. 6 Abs. 1 lit. b DSA [Spindler/Schuster/Kaesling/Mörsdorf, Recht der elektronischen Medien, 5. Aufl. 2026, DSA Art. 16 Rn. 4; Gerdemann/Spindler: Das Gesetz über digitale Dienste (Digital Services Act) (Teil 1), GRUR 2023, 3, 8]. Hostingdiensteanbieter sind nach Art. 8 DSA nicht verpflichtet, gespeicherte Informationen zu überwachen. Sie müssen nicht aktiv nach Umständen forschen, die auf eine rechtswidrige Tätigkeit hindeuten (NK-DSA/F. Hofmann, 1. Aufl. 2023, Art. 8 Rn. 15 f.). Erhält ein Host-Provider aber eine Meldung nach Maßgabe des Art. 16 DSA, deren Inhalt es einem sorgfältig handelnden Anbieter ermöglicht, ohne eingehende rechtliche Prüfung festzustellen, dass die einschlägige Tätigkeit oder Information rechtswidrig ist, begründet dies gem. Art. 16 Abs. 3 DSA eine konkrete Kenntnis und damit die Obliegenheit zum zügigen Tätigwerden nach Art. 6 Abs. 1 lit. b DSA.

Das formelle Meldeverfahren nützt damit zum einen dem Betreiber, dem es erspart bleibt, eigeninitiativ auf seiner Online-Plattform nach Rechtsverletzungen zu suchen. Diese Zielrichtung weist allerdings nur eine untergeordnete Bedeutung auf. Den Aufwand einer eigenen Recherche hätte der Verordnungsgeber dem Plattformbetreiber auch ersparen können, ohne ein Meldeverfahren einzuführen und hierfür eine Zunahme rechtswidriger Inhalte hinzunehmen. Dies verdeutlicht, dass Art. 16 Abs. 1, Abs. 2 DSA zugleich den Zweck verfolgt, die Plattform von rechtswidrigen Inhalten freizuhalten. Ein effektives Meldeverfahren dient damit auch dem Schutz der Nutzer – zu einem großen Anteil zugleich Verbraucher – vor rechtswidrigen Inhalten.

Dabei bewirkt die Angabe von Namen und E-Mail-Adresse des Melders gem. Art. 16 Abs. 2 S. 2 lit. c DSA eine Steigerung der Effektivität. Zwar muss der Hostingdiensteanbieter auch anonymen Meldungen nachgehen; allerdings wird man ihm zugestehen müssen, konkrete Erfahrungswerte von anonymen Meldungen berücksichtigen zu dürfen, um die Bearbeitung zu priorisieren und die Rechtswidrigkeit eines Inhalts zu beurteilen. So kann sich etwa in den Beschwerde- und den weiteren Rechtsbehelfsverfahren herausstellen, dass bei einer bestimmten Art von Informationen anonyme Hinweise überdurchschnittlich oft Fehlmeldungen sind (NK-DSA/Raue, 1. Aufl. 2023, Art. 16 Rn. 40). Schon deshalb steigert die Angabe von Identifizierungsmerkmalen der meldenden Person die Effektivität des sich anschließenden Abhilfeverfahrens.

Dieser Effekt wird noch durch die Verpflichtung des Hostingdiensteanbieters verstärkt, dem Hinweisgeber unverzüglich eine Empfangsbestätigung der Meldung (Art. 16 Abs. 4 DSA) sowie später die mit einer Rechtsbehelfsbelehrungversehene Entscheidung (Art. 16 Abs. 5 DSA) zu übermitteln. Beides setzt naturgemäß die Kenntnis seiner Identität voraus (Spindler/Schuster/Kaesling/Mörsdorf, Recht der elektronischen Medien, 5. Aufl. 2026, DSA Art. 16 Rn. 33; NK-DSA/Raue, 1. Aufl. 2023, Art. 16 Rn. 104).

Damit dient nicht nur das vor dem Hintergrund des Datenschutzes bestehende Recht des Melders auf Anonymität (Erwägungsgrund 50 S. 5 DSA), sondern auch umgekehrt die Möglichkeit zur Angabe der persönlichen Daten dem Verbraucherschutz.

d. Die Klage ist vollumfänglich hinreichend bestimmt im Sinne des § 253 Abs. 2 Nr. 2 ZPO.

aa. Der Klageantrag Ziff. 1. a) begegnet insoweit keinen Bedenken. Gem. § 253 Abs. 2 Nr. 2 ZPO darf ein Unterlassungsantrag – und nach § 313 Abs. 1 Nr. 4 ZPO eine darauf beruhende Verurteilung – nicht derart undeutlich gefasst sein, dass Gegenstand und Umfang der Entscheidungsbefugnis des Gerichts nicht erkennbar abgegrenzt sind, sich der Beklagte deshalb nicht erschöpfend verteidigen kann und letztlich die Entscheidung darüber, was dem Beklagten verboten ist, dem Vollstreckungsgericht überlassen bliebe (st. Rspr.; vgl. BGH, Urteil vom 07.03.2019 – I ZR 184/17, GRUR 2019, 746, 747 Rn. 15 – Energieeffizienzklasse III; Urteil vom 30.04.2015 – I ZR 13/14, GRUR 2015, 1228, 1230 Rn. 26 – Tagesschau-App; Urteil vom 11.10.1990 – I ZR 35/89, GRUR 1991, 254, 256 – Unbestimmter Unterlassungsantrag). Eine Bezugnahme auf Anlagen – wie im Streitfall auf die Anlage K 3 – ist zur Konkretisierung der Verletzungshandlung, deren Verbot begehrt wird, zulässig (OLG Nürnberg, Beschluss vom 06.05.2015 – 3 U 379/15 –, Rn. 20, juris; BeckOK-ZPO/Bacher, 59. Ed. 01.12.2025, § 253 Rn. 57a i. V. m. Rn. 39a).

Nach diesen Maßstäben erweist sich der Klageantrag als hinreichend bestimmt. Für die Beklagte sind die Verletzungshandlungen klar erkennbar, deren Unterlassung der Kläger begehrt. Durch die Bezugnahme auf die konkrete Werbung gemäß Anlage K 3 ist die notwendige Konkretisierung hergestellt worden.

Das Argument der Beklagten überzeugt nicht, es fehle an der erforderlichen Bestimmtheit, weil der Kläger nicht bezeichne, in welchen Merkmalen des angegriffenen Verhaltens die Grundlage und der Anknüpfungspunkt für den Wettbewerbsverstoß und damit das Unterlassungsgebot liegen sollten, die konkreten Elemente des User Flows nicht identifiziere, die die Basis des Unterlassungsanspruchs bilden sollten, und im Unklaren lasse, ob der in Anlage K 3 gezeigte User Flow insgesamt verboten werden solle oder beibehalten werden könne, solange er über weitere Wege als den oben dargestellten Rechtsklick erreicht werden kann. Der Streitgegenstand wird durch den gesamten historischen Lebensvorgang bestimmt, auf den sich das Rechtsschutzbegehren des Unterlassungsklägers bezieht. Es liegt in der Hand des Klägers, die verschiedenen Aspekte, unter denen er die fragliche Bezeichnung beanstanden möchte, mit verschiedenen Anträgen im Wege der kumulativen Klagehäufung anzugreifen. Er kann aber auch nur ein Unterlassungsbegehren formulieren und mit verschiedenen Begründungen untermauern. Dann muss davon ausgegangen werden, dass der Streitgegenstand den im Antrag genannten Vorgang generell umfassen soll. Die erforderliche Bestimmtheit gem. § 253 Abs. 2 Nr. 2 ZPO ist auch in diesem Fall gewahrt (BGH, Urteil vom 13.09.2012 – I ZR 230/11, GRUR 2013, 401, 403 Rn. 26 – Biomineralwasser).

Der Kläger hat die Ausgestaltung des Verfahrens zur Deaktivierung der personalisierten Feed-Funktion auf der Webseite der Beklagten dargestellt. Die Elemente, an denen er sich aus verbraucherschutzrechtlicher Perspektive stört, hat er hinreichend beschrieben; auch die Beklagte nennt keine relevanten Elemente des User Flows, die im Antrag nicht enthalten wären. Dadurch hat der Kläger das Verfahren in der konkreten, auf der von der Beklagten betriebenen Online-Plattform in der Web-Version zur Anwendung kommenden Weise zum Streitgegenstand gemacht. Über diesen hat das Gericht zu entscheiden, § 308 Abs. 1 ZPO. Der Kläger ist im Rahmen des § 253 ZPO nicht gehalten, darzulegen, welche hypothetische Alternativgestaltung er als rechtmäßig erachte. Deshalb muss er auch nicht angeben, ob er eine Ausgestaltung des Deaktivierungsverfahrens für personalisierte Feeds akzeptieren würde, wenn es auf andere Weise als über die im oberen Rand des gerade geöffneten Beitrags abgebildeten drei Punkte erreichbar wäre.

Aus den vorgenannten Gründen stellt Klageantrag Ziff. 1 a) keine unzulässige alternative Klagehäufung dar. Eine solche liegt vor, wenn ein einheitliches Klageziel aus unterschiedlichen Streitgegenständen abgeleitet wird (etwa gleichrangig aus eigenem und aus abgetretenem Recht; BGH, Beschluss vom 27.11.2013 – III ZR 371/12, BeckRS 2014, 01621; OLG Brandenburg, Urteil vom 09.11.2022 – 11 U 82/18, BeckRS 2022, 34191 Rn. 33; Stein/Roth, ZPO, 24. Aufl. 2024, § 253 Rn. 58). Dem gegenständlichen Klageantrag Ziff. 1 a) liegt aber nur ein Lebenssachverhalt zugrunde.

bb. Klageantrag Ziff. 1 b) ist in der zuletzt gestellten Fassung ebenfalls hinreichend bestimmt gem. § 253 Abs. 2 Nr. 2 ZPO, was die Beklagte auch nicht in Abrede stellt.

Maßgeblich ist der Antrag aus dem Schriftsatz vom 22.12.2025 und nicht die Fassung der Klageschrift, die tatsächlich nicht hinreichend bestimmt war. Der Kläger durfte den Antrag neu formulieren. Seine Umformulierung stellt schon keine Klageänderung gem. § 263 ZPO dar, weil der zugrunde liegende Lebenssachverhalt gleich geblieben ist. Die Auffassung der Beklagten, der Klageantrag beinhalte in seiner neuen Fassung die Verpflichtung, die Meldung sämtlicher Verstöße (auch gegen die Compliance-Guideline) dem förmlichen Verfahren nach Art. 16 DSA zu unterwerfen, ist nicht zutreffend. Der Kläger stellt einen Unterlassungsantrag, der sich auf die derzeitige Ausgestaltung des Meldeverfahrens bezieht. Es handelt sich um keinen Verpflichtungsantrag, das Verfahren in einer bestimmten Weise aufzubauen.

Unabhängig davon wäre eine Klageänderung, die auf dem gerichtlichen Hinweis aus der Ladungsverfügung beruht, unzweifelhaft sachdienlich (§ 263 a. E. ZPO).

e. Der Zulässigkeit der Klage steht keine ausschließliche Entscheidungsbefugnis der EU-Kommission bzw. der Koordinatorin CnaM entgegen.

Die entsprechende Auffassung der Beklagten beruht auf der These, die hier maßgeblichen Normen seien nicht verbraucherschützender Natur. Wie ausgeführt teilt der Senat diese Annahme nicht. Dass selbst bei einem Verstoß gegen verbraucherschützende Vorschriften die Verbandsklage ausgeschlossen wäre, behauptet auch die Beklagte nicht. Eine solche Ansicht stünde auch in offenkundigem Widerspruch zu Erwägungsgrund 149 des DSA, die Nutzer hätten das Recht, eine juristische Person oder eine öffentliche Stelle mit der Ausübung ihrer in dieser Verordnung vorgesehenen Rechte zu beauftragen. Hieraus folgt, dass Nutzer die in der Verbandsklagen-RL vorgesehenen Stellen in Anspruch nehmen können. Dementsprechend führt die Verbandsklagen-RL in Anh. I Nr. 68 den DSA auf, was wiederum von § 2 Abs. 2 Nr. 57 umgesetzt wurde (Köhler/Feddersen/Köhler/Alexander, UWG, 44. Aufl. 2026, UKlaG § 2 Rn. 69; BeckOK UWG/Günther, 30. Ed. 01.07.2025, UKlaG § 2 Rn. 72).

2. Die zulässige Klage erweist sich auch in der Sache vollumfänglich als erfolgreich.

a. Dem Kläger steht gegen die Beklagte ein Unterlassungsanspruch gem. §§ 2 Abs. 1, Abs. 2 Nr. 57 UKlaG zu.

Auf den vorliegenden Streitfall ist deutsches Sachrecht anwendbar. Richtet sich eine beanstandete Website bestimmungsgemäß an Kunden in der Bundesrepublik, so ist gem. Art. 6 Abs. 1 Rom-II-VO deutsches Recht anzuwenden, da die Rechte von Konsumenten betroffen sind, die in Deutschland leben (LG Berlin, Versäumnisurteil vom 06.05.2022 – 15 O 266/20, Rn. 8, juris; Herberger/Martinek/Rüßmann/Weth/Würdinger/Baetge, jurisPK-BGB, 11. Aufl. 2026, Stand: 01.03.2026, § 2 UKlaG, Rn. 121).

aa. Das von der Beklagten in der Web-Version verwendete Verfahren zur De-Personalisierung der Feeds erfüllt die Vorgaben des Art. 38, 27 Abs. 3 S. 2 DSA nicht, weil die Auswahlmöglichkeit der Funktion nicht unmittelbar und leicht zugänglich ist.

(1) Anbieter sehr großer Plattformen im Sinne des Art. 33 DSA müssen für ihre Empfehlungssysteme mindestens eine Nutzungsoption anbieten, die nicht auf Profiling gem. Art. 4 Abs. 4 DS-GVO, also nicht auf der Analyse und Bewertung personenbezogener Daten des Nutzers, beruht. Gibt es mehrere Empfehlungsoptionen, muss die Funktion, mit der diese (inklusive der Profilingfreien Empfehlungsoption) ausgewählt werden können, gem. Art. 38 i. V. m. Art. 27 Abs. 3 S. 2 DSA für die Nutzer von der Benutzeroberfläche aus, auf der die Empfehlungen angezeigt werden, jederzeit unmittelbar und leicht zugänglich sein (NK-DSA/Grisse, 1. Aufl. 2023, Art. 38 Rn. 10, 11; Art. 27 Rn. 38).

Die Anforderungen der unmittelbaren und leichten Zugänglichkeit der Einstellungs- und Änderungsoption gem. Art. 27 Abs. 3 S. 2 DSA entspricht derjenigen des Art. 26 Abs. 1 lit. d DSA. Der Unterschied in der Formulierung („unmittelbar“ beziehungsweise „direkt“) geht auf eine Ungenauigkeit bei der Übersetzung zurück. Die Änderungsmöglichkeit ist direkt und leicht zugänglich, wenn sie parallel zu den gereihten Inhalten dargestellt oder über einen Hyperlink verknüpft wird (Spindler/Schuster/Kaesling/Janal, Recht der elektronischen Medien, 5. Aufl. 2026, DSA Art. 27 Rn. 20). Jedenfalls der Einstiegs-Link muss direkt im unmittelbaren Zusammenhang mit den Empfehlungen zu finden sein, z.B. in der Ecke eines Newsfeeds (Holznagel, Internet und E-Commerce: Die Regulierung von Empfehlungssystemen im DSA, CR 2025, 318, 320).

(a) Nach diesen Maßstäben ist die Funktion zur Deaktivierung der Personalisierung im Sinne des Art. 27 Abs. 3 S. 2 DSA unmittelbar zugänglich. Unstreitig lässt sich durch einen Rechtsklick auf ein Video ein Menü öffnen, das den Unterpunkt „Feeds verwalten“ enthält. Von diesem wiederum gelangt man zur Deaktivierungsfunktion. Nach unwidersprochen gebliebenem Vortrag der Beklagten, namentlich einem Zitat ihrer Hilfeseite, an dessen Richtigkeit kein Zweifel angemeldet wird, funktioniert dieser Weg beim Rechtsklick auf jeglichen angezeigten Beitrag und jegliches angezeigte Produkt (Anlage B 4). Da sowohl nach Art. 27 Abs. 3 S. 2 DSA als auch nach Erwägungsgrund 94 die Zugänglichkeit von der Online-Schnittstelle aus stattfinden muss, auf der das Ergebnis des personalisierten Feeds präsentiert wird, entspricht die Positionierung in den Videos und sonstigen Produkten den Vorgaben des DSA (gleiches gilt für die Platzierung des Links in einem Nachrichten-Feed eines sozialen Mediums; Gerecke, Social-Media-Recht-HdB/Schmieke, 1. Aufl. 2023, Kap. 3 Rn. 99). Eine Platzierung in den Kontoeinstellungen ist dementsprechend nicht erforderlich (und genügte, wenn es sich um den einzigen Weg handelte, wohl auch nicht dem Unmittelbarkeitserfordernis). Dementsprechend ist es vor dem Hintergrund des Unmittelbarkeitskriteriums auch nicht zu beanstanden, dass sich das Menü mit dem Unterpunkt „Feeds verwalten“ beim Klick auf ein Teil der Benutzeroberfläche, der kein Video und kein sonstiges Produkt enthält, nicht öffnet.

(b) Allerdings ist die De-Personalisierungsfunktion nicht leicht zugänglich.

(aa) Der leichten Zugänglichkeit steht entgegen, dass die Funktion „Feeds verwalten“, die den Einstieg in das Menü zur Depersonalisierung bildet, nur bei einem Rechtsklick auf ein Video oder Produkt erscheint, bei einem Rechtsklick auf einen sonstigen Teil der Benutzeroberfläche oder auf die drei Punkte, die bei Bewegung des Cursors auf einem Video am oberen Rand erscheinen, sich aber andere Menüs öffnen, die diese Funktion nicht enthalten.

Eine Information ist leicht zugänglich, wenn der durchschnittliche Verbraucher auf möglichst einfache Weise von ihr Kenntnis erlangen (vgl. BT-Drs. 19/27655, S. 38, zum identischen Begriff in Art. 246d Abs. 2 EGBGB und § 312k Abs. 2 S. 4 BGB) und die Schaltfläche ohne erheblichen Aufwand finden kann (KG, Urteil vom 21.01.2025 – 5 UKl 8/24, MMR 2025, 538, 540 Rn. 34; BeckOK IT-Recht/Föhlisch, 20. Ed. 01.10.2025, BGB § 312k Rn. 20). Das setzt ihre Platzierung an der Stelle voraus, an der der Nutzer sie typischerweise erwartet (KG a. a. O., Rn. 37). Es setzt aber auch voraus, dass der Nutzer nicht erst im Rahmen einer Vielzahl von Einstellungsmöglichkeiten unterschiedlichster Art nach der Funktion suchen muss (so zu Art. 27 DSA: NK-DSA/Grisse, 1. Aufl. 2023, Art. 27 Rn. 38). Korrespondierend hierzu fehlt es an der leichten Erreichbarkeit auch dann, wenn zwar das Menü, das den relevanten Unterpunkt (hier: „Feeds verwalten“) enthält, nicht überfrachtet ist, aber neben anderen Menüs besteht, die sich auf ähnliche Weise öffnen lassen und diesen Menüpunkt nicht enthalten.

Indem die Beklagte mit drei Punkten im oberen rechten Rand eine Menüfunktion eingerichtet hat, stellt sie eine dem durchschnittlichen Internetnutzer aus zahlreichen Programmen bekannte Option zur Ermöglichung weiterer Aktionen zur Verfügung. Bewegt vorliegend der Nutzer den Cursor über einen Beitrag und erscheinen daraufhin die drei Punkte, dann wird er regelmäßig diese anwählen, wenn er Funktionen ändern will. Im dann erscheinenden Menü findet sich aber keine Möglichkeit, die Feedsverwaltung zu depersonalisieren. Dies ist vor allem vor dem Hintergrund verwirrend, dass es mit dem Menüpunkt „nicht interessiert“ im unter den drei Punkten erscheinenden Drop-Down-Menü durchaus eine Funktion gibt, die mit der Beeinflussung der Feeds-Verwaltung zusammenhängt. Denn ausweislich der Erläuterung der Beklagten hat ein Klick auf den Unterpunkt „nicht interessiert“ zur Folge, dass künftig weniger ähnliche Inhalte angezeigt werden (Anlage K 2, „Für dich“, erster Gliederungspunkt). Der Nutzer wird demnach nicht davon ausgehen, dass die De-Personalisierung der Feeds in einem anderen Menü vorzunehmen ist, das sich nicht durch die drei Punkte, sondern über einen Rechtsklick auf ein Video oder Produkt (nicht aber auf einen „freien“ Teil der Benutzeroberfläche) aktivieren lässt.

Dabei ist auch von Bedeutung, dass eine möglichst einfache Weise der Kenntniserlangung gefordert wird. Die Gesetzesbegründung zum inhaltsgleichen Begriff in Art. 246d Abs. 2 EGBGB und § 312k Abs. 2 S. 4 BGB (siehe oben) ist auf Art. 27 Abs. 3 S. 2 DSA übertragbar. Es kann der Beklagten vor diesem Hintergrund zwar nicht abverlangt werden, umfangreiche Menüs zur Verfügung zu stellen, die dann wegen Überfrachtung wieder unübersichtlich und deshalb auch nicht leicht zugänglich wären. Die Aufnahme der De-Personalisierungsfunktion in das Menü, das bei einem Klick auf die drei Punkte erschiene, führte aber nicht zu einer solchen Überfrachtung des bisher aus drei Schaltflächen bestehenden Menüs.

Der Unterlassungsantrag Ziff. 1 a) ist damit gem. §§ 2 Abs. 1, Abs. 2 Nr. 57 UKlaG i. V. m. Art. 38, 27 Abs. 3 DSA begründet.

(bb) Da der Menüpunkt „Feeds verwalten“ entgegen Art. 27 Abs. 3 S. 2 DSA nicht leicht zugänglich ist, kommt es auf die weitere Frage nicht an, ob seine Bezeichnung die erforderliche Klarheit aufweist, also ob der durchschnittliche Nutzer unter diesem Menüpunkt die Möglichkeit zur De-Personalisierung erwartet.

bb. Die Beklagte verstößt zudem mit der Ausgestaltung ihres Meldeverfahrens für rechtswidrige Inhalte auf der von ihr betriebenen Online-Plattform gegen Art. 16 Abs. 1 S. 2, Abs. 2 S. 2 lit. c DSA.

Gem. Art. 16 Abs. 1 DSA haben die Hostingdiensteanbieter Verfahren einzurichten, nach denen Personen oder Einrichtungen ihnen mutmaßlich rechtswidrige Inhalte von Einzelinformationen in ihren Diensten melden können. Diese Verfahren müssen leicht zugänglich sowie benutzerfreundlich sein und eine Übermittlung von Meldungen ausschließlich auf elektronischem Weg ermöglichen. Sie müssen das Übermitteln hinreichend genauer und angemessen begründeter Meldungen erleichtern. Dazu haben die Hostingdiensteanbieter die erforderlichen Maßnahmen zu ergreifen, um die Übermittlung von Meldungen zu ermöglichen und zu erleichtern, die u. a. den Namen und die Adresse der meldenden Person enthalten (Art. 16 Abs. 2 S. 1, S. 2 lit. c DSA).

(1) Leicht zugänglich im Sinne des Art. 16 Abs. 1 S. 2 DSA ist das Meldeverfahren, wenn bereits der Einstieg in das Verfahren klar erkennbar ist (vgl. Erwägungsgrund 50 S. 3 DSA). Der meldewilligen Person oder Einrichtung muss es danach möglich sein, direkt in der Nähe des zu meldenden Inhalts in das Meldeverfahren einzusteigen (Spindler/Schuster/Kaesling/Mörsdorf, Recht der elektronischen Medien, 5. Aufl. 2026, DSA Art. 16 Rn. 10; NK-DSA/Raue, 1. Aufl. 2023, Art. 16 Rn. 24). Klar erkennbar ist der Einstieg in das Meldeverfahren zudem nur dann, wenn sich anhand seiner äußeren Gestaltung die Möglichkeit einer Meldung rechtswidriger Inhalte ohne weiteres erschließt. Etabliert haben sich durch ein Flaggensymbol und/oder den Text „Inhalt melden“ gekennzeichnete Schaltflächen (Meldebuttons), nach deren Anklicken sich ein Webformular oder auch ein mehrstufiges Menü zur Meldung des Inhalts öffnet (Mörsdorf a. a. O.).

Nach diesen Maßstäben bestehen an der leichten Zugänglichkeit des gegenständlichen Meldeverfahrens keine Zweifel; solche werden vom Kläger auch nicht geltend gemacht.

(2) Die Ausgestaltung des Meldeverfahrens stellt sich aber nicht als benutzerfreundlich im Sinne des Art. 16 Abs. 1 S. 2 DSA dar.

(a) Benutzerfreundlich ist das Meldeverfahren, wenn es ohne Unannehmlichkeiten für meldewillige Personen und Einrichtungen durchschritten werden kann (Spindler/Schuster/Kaesling/Mörsdorf, Recht der elektronischen Medien, 5. Aufl. 2026, DSA Art. 16 Rn. 11). Auswahlmenüs, die meldewilligen Personen eine juristische Bewertung des von ihnen gemeldeten Inhalts abverlangen, sind im Hinblick auf die nach Art. 16 Abs. 2 S. 2 lit. a DSA geforderte Erläuterung zulässig; auch sie müssen aber benutzerfreundlich ausgestaltet sein (Mörsdorf a. a. O.).

Vorliegend sieht das Drop-Down-Menü, das sich nach einem Klick auf den leicht zugänglichen Meldebutton öffnet, eine ganze Reihe von Auswahlmöglichkeiten vor, von denen nur die Schaltfläche „Widerrechtlichen Inhalt melden“ einen den Vorgaben des Art. 16 DSA genügenden Weg eröffnet. Diese befindet sich ohne besondere Hervorhebung inmitten der weiteren Schaltflächen. In keiner Weise ist kenntlich gemacht, dass sie sich von den übrigen Untermenüs qualitativ unterscheidet. Der Nutzer kann nicht erkennen, dass er nur bei Auswahl der Schaltfläche „Widerrechtlichen Inhalt melden“ ein offizielles Meldeverfahren gem. Art. 16 DSA in die Wege leitet. Dies ist umso mehr von Bedeutung, als einige der übrigen Unterpunkte ebenfalls rechtswidrige Inhalte gem. Art. 3 lit. h) DSA betreffen (etwa „Hass und Belästigung“, „Betrug und Schwindel“ oder „Fälschungen und geistiges Eigentum“).

Faktisch hängt es daher häufig vom Zufall ab, welche Schaltfläche der Nutzer betätigt und demnach auch, ob er ein den Anforderungen des Art. 16 DSA genügendes Meldeverfahren in die Wege leitet. Der Nutzer, der (ungewöhnlicherweise) die Anforderungen des Art. 16 Abs. 2 DSA kennt, müsste eventuell den eingeleiteten Meldevorgang abbrechen und weitere Menüpunkte ausprobieren, bis er auf die Schaltfläche „widerrechtlichen Inhalt melden“ stößt. Die Auffindung dieses Meldeverfahrens wird dem Nutzer daher durch die Ausgestaltung in einer Weise erschwert, dass sie entgegen der Vorgabe der Benutzerfreundlichkeit mit Unannehmlichkeiten verbunden ist. Der weitaus häufigere Fall wird allerdings ohnehin sein, dass der meldewillige Nutzer gar nicht bemerkt, kein den Anforderungen des Art. 16 DSA entsprechendes Verfahren in die Wege geleitet zu haben.

(b) Dem steht der Einwand der Beklagten nicht entgegen, zur Einrichtung eines parallelen Meldeverfahrens für Verstöße gegen ihre Community-Standards berechtigt zu sein, das nicht den Anforderungen des Art. 16 DSA genügen muss. Dieses Recht steht ihr zweifellos zu. Ebenso wenig wie es mit Art. 16 DSA vereinbar ist, wenn dieses Meldeverfahren das vom DSA vorgesehene benachteiligt (Spindler/Schuster/Kaesling/Mörsdorf, Recht der elektronischen Medien, 5. Aufl. 2026, DSA Art. 16 Rn. 12), kann es aber dazu berechtigen, das Verfahren nach Art. 16 DSA so in den Hintergrund treten zu lassen, dass seine Benutzerfreundlichkeit leidet. Dies ist vorliegend indes mangels jedweder Kennzeichnung, welche Schaltflächen die Meldung der Verletzung von Community-Standards und welche die Meldung rechtswidriger Inhalte im Sinne des Art. 16 Abs. 1 DSA betreffen, der Fall.

(c) Dementsprechend besteht der Unterlassungsanspruch im unter Ziff. 1 b) beantragten Umfang. Entgegen der Auffassung der Beklagten ist Unterlassungsantrag nicht zu weitgehend.

Ein Unterlassungsantrag ist zu weitgehend, soweit er den materiellen Unterlassungsanspruch übersteigt (Köhler/Feddersen/Bornkamm/Feddersen, UWG, 44. Aufl. 2026, UKlaG § 2 Rn. 86 i. V. m. UWG § 8 Rn. 1.66). Der sachliche Umfang des Unterlassungsanspruchs richtet sich nach dem Umfang eine Begehungsgefahr. Ausgangspunkt ist dabei die konkrete Verletzungshandlung. Dabei ist zu beachten, dass sich die durch eine Verletzungshandlung begründete Wiederholungsgefahr grundsätzlich auf alle im Kern gleichartigen Verletzungshandlungen erstreckt, ohne dass insofern auf eine Erstbegehungsgefahr zurückgegriffen werden müsste (Köhler/Feddersen/Bornkamm/Feddersen a. a. O., Rn. 1.64).

Nach diesen Maßstäben entspricht der Antrag, der sich eng am konkreten Verstoß orientiert, der Reichweite des materiellen Unterlassungsanspruchs. Er umfasst nur die Unterlassung der konkreten Ausgestaltung des Meldevorgangs. Der Beklagten wird die Vorhaltung eines zusätzlichen – neben dem formellen nach Art. 16 Abs. 1, Abs. 2 DSA bestehenden – Meldewegs für Verstöße gegen Community-Standards nicht verboten. Sie kann dabei grundsätzlich auch Untermenüs mit den jetzt schon vergebenen Bezeichnungen vorhalten, sofern ihre konkrete Ausgestaltung nicht dem Gebot der Benutzerfreundlichkeit im Sinne des Art. 16 Abs. 1 S. 2 DSA des vom DSA vorgesehenen Meldeverfahrens für als rechtswidrig angesehene Inhalte entgegensteht und sich nicht als kerngleich mit dem hier gegenständlichen Erstverstoß darstellt.

cc. Das Interesse des Verbraucherschutzes an den geltend gemachten Unterlassungsansprüchen im Sinne des § 2 Abs. 1 S. 1 UKlaG folgt regelmäßig aus den Zuwiderhandlungen gegen verbraucherschützende Normen (Köhler/Feddersen/Köhler/Alexander, UWG, 44. Aufl. 2026, UKlaG § 2 Rn. 84). Anhaltspunkte für ein nicht im Kollektivinteresse liegenden oder aus sonstigen Gründen nicht vom Verbraucherschutzinteresse gedeckten Tätigwerden des Klägers (vgl. BeckOK UWG/Günther, 30. Ed. 01.07.2025, UKlaG § 2 Rn. 82 f.) bestehen vorliegend nicht.

dd. Da die Beklagte die geforderte strafbewehrte Unterlassungserklärung nicht abgegeben hat, streitet eine tatsächliche Vermutung für das Vorliegen der auch im Anwendungsbereich des UKlaG für einen Unterlassungsanspruch konstitutiven Wiederholungsgefahr (vgl. BGH, Urt. v. 06.06.2018 – VIII ZR 247/17, GRUR-RR 2018, 454, 456 Rn. 35 – Strompreise; Beschluss vom 16.11.1995 – I ZR 229/93, GRUR 1997, 379, 380 – Wegfall der Wiederholungsgefahr II; Köhler/Feddersen/Köhler/Alexander, UWG, 44. Aufl. 2026, § 2 UKlaG Rn. 82; Nomos-BR/Walker, UKlaG, 1. Aufl. 2016, § 2 Rn. 7). Gründe, die eine Wiederholungsgefahr ausnahmsweise auch ohne Abgabe einer strafbewehrten Unterlassungserklärung ausreichen ließen, sind nicht vorgetragen und nicht ersichtlich.

b. Der Kläger hat weiter einen Anspruch auf Erstattung von Abmahnkosten in der geforderten Höhe gem. § 5 UKlaG i. V. m. § 13 Abs. 3 UWG (Klageantrag Ziff. 2).

Hierfür kommt es nicht darauf an, dass die Abmahnung zum Teil auch einen unrichtigen Sachverhalt zugrunde legte, nämlich soweit sie sich auf den Verstoß gegen die Pflicht zur Einrichtung eines nicht auf Profiling beruhenden Empfehlungssystems gem. Art. 38 DSA bezieht. Anders als dort ausgeführt (Anlage K 7, S. 4), hat die Beklagte ein solches System unstreitig vorgehalten und insoweit ihrer Verpflichtung genügt. In Streit steht nunmehr die in der Abmahnung noch nicht gegenständliche Ausgestaltung des De-Personalisierungsverfahrens.

Dies berührt die Höhe der berechtigten Abmahnkosten aber nicht. Bei einer nur teilweisen Berechtigung der von einem Verband in Rechnung gestellten Abmahnkostenpauschale kommt keine Kürzung in Betracht, denn die Höhe der Abmahnkostenpauschale ist nicht von der Zahl der abgemahnten Verstöße abhängig. Sobald daher ein Verband auch nur einen berechtigten Unterlassungsanspruch geltend gemacht, ist es für seinen Aufwendungsersatzanspruch unschädlich, wenn in derselben Abmahnung zugleich nicht bestehende Ansprüche erhoben werden. Daher sind solche Kostenpauschalen auch bei nur teilweise berechtigten Abmahnungen ungekürzt zu erstatten (BGH, Urteil vom 10.12.2009 – I ZR 149/07, GRUR 2010, 744, 749 Rn. 51 – Sondernewsletter; OLG Köln, Urteil vom 13.03.2020 – 6 U 267/19, GRUR-RR 2020, 506, 508 Rn. 34; Köhler/Feddersen/Bornkamm/Feddersen, UWG, 44. Aufl. 2026, § 13 Rn. 122; Russlies, Die Abmahnung im gewerblichen Rechtsschutz, 1. Aufl. 2021, Rn. 467).

b. Die verlangte Pauschale von 306,69 € brutto ist vom Kläger plausibel dargelegt worden (Klageschrift vom 01.04.2025, S. 19 = Bl. 19 d. A.; Abmahnung vom 04.11.2024, Anlage K 7, S. 6) und der Höhe nach im Rahmen der dem Senat nach § 287 ZPO zustehenden Ermessensentscheidung nicht zu beanstanden. Einwendungen werden insoweit von der Beklagten auch nicht erhoben. Dass der Kläger in seiner Berechnung sogar auf einen Betrag von 307,69 € kommt, ist unbeachtlich, da er einen solchen nicht geltend macht (§ 5 UKlaG i. V. m. § 308 Abs. 1 S. 1 ZPO).


Leitsätze des Gerichts:
1. Die öffentlichrechtliche Aufsicht gemäß Art. 51 und Art. 56 Abs. 1 DSA steht einer Klage- und Sachbefugnis eines Verbraucherschutzverbandes, um aus § 3 Abs. 1 Nr. 1 i.V.m. § 2 Abs. 1 S. 1, Abs. 2 Nr. 57 UKlaG im Rahmen eines Unterlassungsklageverfahren vorzugehen, nicht entgegen.
2. Das Verfahren zur De-Personalisierung der Feedsverwaltung gem. Art. 27 Abs. 3, 38 DSA dient dem Datenschutz der Nutzer (Art. 3 lit. b DSA), zu denen in großem Umfang auch Verbraucher gehören. Art. 27 Abs. 3 DSA und Art. 38 DSA sind verbraucherschützende Vorschriften.
3. Zu den Anforderungen der unmittelbaren und leichten Zugänglichkeit der Einstellungs- und Änderungsoption gem. Art. 27 Abs. 3 S. 2 DSA.
4. Die Vorschrift des Art. 16 Abs. 1 S. 2, 2 S. 2 lit. c DSA (Meldeverfahren) dient – über eine bloße Neben- oder Reflexwirkung hinaus – ebenfalls dem Verbraucherschutz.
5. Zu den Anforderungen der leichten Zugänglichkeit und der Benutzerfreundlichkeit des Meldeverfahrens für rechtswidrige Inhalte gem. Art. 16 Abs. 1 S. 2 DSA.

Den Volltext der Entscheidung finden Sie hier:

EU-Kommission stellt vorläufig fest: TikTok verstößt wegen seines suchterzeugenden Designs gegen den DSA (Digital Services Act)

Die EU-Kommission hat vorläufig festgestellt, dass TikTok wegen seines suchterzeugenden Designs gegen den DSA (Digital Services Act) verstößt.

Die Pressemitteilung der EU-Kommission:
Kommission stellt vorläufig fest, dass das suchterzeugende Design von TikTok gegen das Gesetz über digitale Dienste verstößt

Die Europäische Kommission hat heute vorläufig festgestellt, dass TikTok wegen seines suchterzeugenden Designs gegen das Gesetz über digitale Dienste verstößt. Dazu gehören Funktionen wie unendliches Scrollen, Autoplay, Push-Benachrichtigungen und das hochgradig personalisierte Empfehlungssystem.

Risikobewertung
Die Untersuchung der Kommission hat vorläufig ergeben, dass TikTok nicht angemessen bewertet hat, wie diese Suchtmerkmale das körperliche und geistige Wohlbefinden seiner Nutzer, einschließlich Minderjähriger und schutzbedürftiger Erwachsener, beeinträchtigen könnten.

Beispielsweise befeuern bestimmte Gestaltungsmerkmale von TikTok, indem sie die Nutzer ständig mit neuen Inhalten „belohnen“, den Drang, weiter zu scrollen und das Gehirn der Nutzer in den „Autopilotenmodus“ zu verlagern. Wissenschaftliche Untersuchungen zeigen, dass dies zu zwanghaftem Verhalten führen und die Selbstkontrolle der Nutzer verringern kann.

Darüber hinaus ignorierte TikTok bei seiner Bewertung wichtige Indikatoren für die zwanghafte Nutzung der App, wie die Zeit, die Minderjährige nachts auf TikTok verbringen, die Häufigkeit, mit der Benutzer die App öffnen, und andere potenzielle Indikatoren.

Maßnahmen zur Risikominderung
TikTok scheint es versäumt zu haben, angemessene, verhältnismäßige und wirksame Maßnahmen zur Minderung der Risiken zu ergreifen, die sich aus seinem Suchtkonzept ergeben.

So scheinen beispielsweise die derzeitigen Maßnahmen zu TikTok, insbesondere die Screentime-Management-Tools und Tools zur elterlichen Kontrolle, die Risiken, die sich aus dem süchtig machenden Design von TikTok ergeben, nicht wirksam zu verringern. Die Zeitmanagement-Tools scheinen die Benutzer nicht in die Lage zu versetzen, ihre Verwendung von TikTok zu reduzieren und zu kontrollieren, da sie leicht zu entlassen sind und begrenzte Reibung einführen. In ähnlicher Weise sind elterliche Kontrollen möglicherweise nicht wirksam, da sie zusätzliche Zeit und Fähigkeiten der Eltern erfordern, um die Kontrollen einzuführen.

Zum gegenwärtigen Zeitpunkt ist die Kommission der Auffassung, dass TikTok das grundlegende Design seines Dienstes ändern muss. Beispielsweise durch die Deaktivierung wichtiger Suchtfunktionen wie „unendliches Scrollen“ im Laufe der Zeit, die Implementierung wirksamer „Bildschirmzeitunterbrechungen“, auch während der Nacht, und die Anpassung des Empfehlungssystems.

Diese vorläufigen Feststellungen greifen dem Ergebnis der Untersuchung nicht vor.

Die vorläufigen Ansichten der Kommission beruhen auf einer eingehenden Untersuchung, die eine Analyse der Risikobewertungsberichte, internen Daten und Dokumente von TikTok und der Antworten von TikTok auf mehrfache Auskunftsersuchen, eine Überprüfung der umfangreichen wissenschaftlichen Forschung zu diesem Thema und Interviews mit Experten in mehreren Bereichen, einschließlich der Verhaltensabhängigkeit, umfasste.

Nächste Schritte
TikTok hat nun die Möglichkeit, von seinem Recht auf Verteidigung Gebrauch zu machen. Sie kann die Unterlagen in den Untersuchungsakten der Kommission prüfen und schriftlich auf die vorläufigen Feststellungen der Kommission antworten. Parallel dazu wird das Europäische Gremium für digitale Dienste konsultiert.

Wird der Standpunkt der Kommission letztlich bestätigt, kann die Kommission eine Nichteinhaltungsentscheidung erlassen, mit der eine Geldbuße verhängt werden kann, die der Art, der Schwere, dem erneuten Auftreten und der Dauer des Verstoßes angemessen ist und bis zu 6 % des weltweiten Jahresumsatzes des Anbieters beträgt.

Hintergrund
Die vorläufigen Feststellungen der Kommission sind heute Teil ihres förmlichen Verfahrens zur Untersuchung der Einhaltung des Gesetzes über digitale Dienste durch TikTok, das am 19. Februar 2024 eingeleitet wurde. Neben dem süchtig machenden Design umfasst diese Untersuchung den „Kaninchenlocheffekt“ der Empfehlungssysteme von TikTok, das Risiko, dass Minderjährige aufgrund einer falschen Darstellung ihres Alters eine altersunangemessene Erfahrung machen, die Verpflichtungen der Plattformen, ein hohes Maß an Privatsphäre, Sicherheit und Schutz für Minderjährige zu gewährleisten.

Die Untersuchung umfasste auch den Zugang zu öffentlichen Daten für Forscher, für die im Oktober 2025 vorläufige Ergebnisse angenommen wurden, und die Transparenz der Werbung, die im Dezember 2025 durch verbindliche Verpflichtungen abgeschlossen wurde.


LG Berlin II: Wegen Unzureichender Altersverifikation darf TikTok keine personenbezogenen Daten von Kindern im Alter von 13 bis 15 Jahren für personalisierte Werbung nutzen

LG Berlin II
Urteil vom 23.12.2025
15 O 271/23


Das LG Berlin II hat entschieden, dass TikTok wegen unzureichender Altersverifikation keine personenbezogenen Daten von Kindern im Alter von 13 bis 15 Jahren für personalisierte Werbung nutzen darf.

Den Volltext der Entscheidung finden Sie hier:


EuG: Beschlüsse der EU-Kommission zur Festlegung der auf Facebook, Instagram und TikTok anwendbaren DSA-Aufsichtsgebühr nichtig aber vorläufig weiterhin in Kraft

EuG
Urteil vom 10.09.2025 - T-55/24 - Meta Platforms Ireland ./. EU-Kommission
Urteil vom 10.09.2025 - T-58/24 - TikTok Technology ./. EU-Kommission


Das EuG hat entschieden, dass die Beschlüsse der EU-Kommission zur Festlegung der auf Facebook, Instagram und TikTok anwendbaren DSA-Aufsichtsgebühr nichtig aber vorläufig weiterhin in Kraft sind.

Die Pressemitteilung des Gerichts:
Gesetz über digitale Dienste: Das Gericht erklärt die Beschlüsse der Kommission zur Festlegung der auf Facebook, Instagram und TikTok anwendbaren Aufsichtsgebühr für nichtig

Die Wirkungen der für nichtig erklärten Beschlüsse werden jedoch vorläufig aufrechterhalten.

Das Gesetz über digitale Dienste (im Folgenden: DSA) überträgt der Europäischen Kommission Aufsichtsaufgaben in Bezug auf Anbieter bestimmter Dienste, die als sehr große Online-Plattformen oder sehr große OnlineSuchmaschinen benannt wurden, weil sie eine erhebliche Mindestschwelle an Nutzern in der Europäischen Union überschreiten. Um die zu diesem Zweck notwendigen Kosten zu decken und diese Aufgaben zu erfüllen, erhebt die Kommission von diesen Anbietern eine jährliche Gebühr, die anhand der durchschnittlichen monatlichen Zahl der Nutzer des jeweiligen Dienstes berechnet wird .

Am 2. März 2023 erließ die Kommission eine delegierte Verordnung zur Ergänzung des DSA durch Methoden und Verfahren für Aufsichtsgebühren.

Am 25. April 2023 benannte die Kommission zum einen Facebook und Instagram und zum anderen TikTok als sehr große Online-Plattformen. Im November 2023 legte sie im Wege von zwei Durchführungsbeschlüssen die Höhe der Aufsichtsgebühr für jede dieser drei Plattformen für das Jahr 2023 fest. Die Meta Platforms Ireland Ltd4 und die TikTok Technology Ltd erhoben beim Gericht der Europäischen Union Klage gegen den jeweils an sie gerichteten Beschluss.

Das Gericht erklärt die Durchführungsbeschlüsse für nichtig, erhält ihre Wirkungen aber für einen vorübergehenden Zeitraum aufrecht.

Um die Höhe der für das Jahr 2023 geschuldeten Aufsichtsgebühr festzulegen, ermittelte die Kommission die durchschnittliche monatliche Zahl aktiver Nutzer der betreffenden Dienste auf der Grundlage einer gemeinsamen Methodik, die auf Daten gestützt war, die von Drittanbietern bereitgestellt worden waren. Die gemeinsame Methodik wurde jedem Durchführungsbeschluss beigefügt. Da diese Methodik einen wesentlichen und unverzichtbaren Bestandteil der Berechnung der Aufsichtsgebühr darstellt, hätte sie indessen nicht im Rahmen von Durchführungsbeschlüssen, sondern gemäß den im DSA festgelegten Regeln im Rahmen eines delegierten Rechtsakts festgelegt werden müssen.

Da das Gericht jedoch keinen Fehler festgestellt hat, der die Verpflichtung der betroffenen Gesellschaften zur Entrichtung der Aufsichtsgebühr für das Jahr 2023 betrifft, erhält es die Wirkungen der für nichtig erklärten Beschlüsse vorübergehend aufrecht. Mit dieser Maßnahme soll die Kommission in die Lage versetzt werden, die Methodik für die Berechnung der durchschnittlichen monatlichen Zahl aktiver Nutzer im Einklang mit dem DSA festzulegen und neue Durchführungsbeschlüsse zu erlassen. Die Dauer dieser vorläufigen Situation darf jedoch zwölf Monate ab dem Tag, an dem die heutigen Urteile rechtskräftig werden, nicht überschreiten.


Die Volltext der Entscheidungen finden Sie hier:
T-55/24

T-58/24

EU-Kommission: TikTok / Bytedance verstöß nach vorläufiger Feststellung gegen den Digital Services Act (DSA) - Fehlendes Repository für Werbung

Die EU-Kommission hat entschieden, dass TikTok / Bytedance nach vorläufiger Feststellung gegen den Digital Services Act (DSA) verstößt (hier: Fehlendes Repository für Werbung).

Die Pressmeitteilung der EU_Kommission:
Kommission stellt vorläufig fest, dass das Anzeigenregister von TikTok gegen das Gesetz über digitale Dienste verstößt

Die Kommission hat TikTok heute von ihrer vorläufigen Auffassung in Kenntnis gesetzt, dass das Unternehmen der Verpflichtung des Gesetzes über digitale Dienste (DSA),ein Repository für Werbung zu veröffentlichen, nicht nachkommt. Ein solches Repository für Werbung ist für Forscher und die Zivilgesellschaft von entscheidender Bedeutung, um Betrugsanzeigen, hybride Bedrohungskampagnen sowie koordinierte Informationsoperationen und gefälschte Werbung, auch im Zusammenhang mit Wahlen, zu erkennen.

Die Kommission hat festgestellt, dass TikTok nicht die erforderlichen Informationen über den Inhalt der Anzeigen, die von den Anzeigen angesprochenen Nutzer und die für die Anzeigen bezahlten Nutzer bereitstellt. Darüber hinaus erlaubt das Repository von TikTok der Öffentlichkeit nicht, auf der Grundlage dieser Informationen umfassend nach Werbung zu suchen, wodurch der Nutzen des Tools eingeschränkt wird.

Die vorläufigen Feststellungen der Kommission beruhen auf einer eingehenden Untersuchung, die unter anderem die Analyse interner Unternehmensdokumente, die Erprobung der Tools von TikTok und Interviews mit Experten auf diesem Gebiet umfasste. Mit der Übermittlung vorläufiger Feststellungen teilt die Kommission TikTok ihre vorläufige Auffassung mit, dass sie gegen das Gesetz über digitale Dienste verstößt. Dies gilt unbeschadet des Ergebnisses der Untersuchung.

Die nächsten Schritte
TikTok hat nun die Möglichkeit, seine Verteidigungsrechte auszuüben, indem es die Unterlagen in der Untersuchungsakte der Kommission prüft und schriftlich auf die vorläufigen Feststellungen der Kommission antwortet. Parallel dazu wird das Europäische Gremium für digitale Dienste konsultiert.

Sollte sich die vorläufige Auffassung der Kommission letztlich bestätigen, kann die Kommission eine Entscheidung über die Nichteinhaltung erlassen, die eine Geldbuße von bis zu 6 % des weltweiten Jahresumsatzes des Anbieters sowie einen erweiterten Überwachungszeitraum auslösen kann, um die Einhaltung der Maßnahmen zu gewährleisten, die der Anbieter zur Behebung des Verstoßes zu ergreifen beabsichtigt. Die Kommission kann auch Zwangsgelder verhängen, um eine Plattform zur Einhaltung zu zwingen.

Hintergrund
Am 19. Februar 2024 leitete die Kommission ein förmliches Verfahren ein, um zu prüfen, ob TikTok möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Neben der Werbetransparenz betraf die Einleitung des Verfahrens auch die negativen Auswirkungen, die sich aus der Gestaltung der algorithmischen Systeme von TikTok (wie „Hasenlocheffekte“ und Verhaltenssucht), der Alterssicherung, der Verpflichtung zur Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz für Minderjährige und dem Datenzugriff für Forscher ergeben, für die die Untersuchung fortgesetzt wird.

Darüber hinaus hat die Kommission im Dezember 2024 ein förmliches Verfahren gegen TikTok wegen des Risikomanagements im Zusammenhang mit Wahlen und dem zivilgesellschaftlichen Diskurs eingeleitet, für das die Untersuchung fortgesetzt wird. Diese Untersuchungen werden von der Kommission vorrangig durchgeführt.

Die Kommission hat auch ein Hinweisgeber-Tool eingerichtet, das es Mitarbeitern und anderen Personen mit Kenntnissen ermöglicht, sich anonym an die Kommission zu wenden, um zur Überwachung der Einhaltung durch die Kommission durch benannte sehr große Online-Plattformen (VLOPs) und sehr große Online-Suchmaschinen (VLOSEs) beizutragen.


Irische Datenschutzbehörde: Bußgeld in Höhe von 530 Millionen EURO gegen TikTok / Bytedance wegen Übermittlung personenbezogener Daten der Nutzer nach China

Die Irische Datenschutzbehörde (IDPC) hat ein Bußgeld in Höhe von 530 Millionen EURO gegen TikTok / Bytedance wegen Übermittlung personenbezogener Daten der Nutzer nach China verhängt.

Die Pressemitteilung der IDPC:
Irish Data Protection Commission fines TikTok €530 million and orders corrective measures following Inquiry into transfers of EEA User Data to China

The Irish Data Protection Commission has today announced its final decision following an Inquiry into TikTok Technology Limited (“TikTok”). This Inquiry was launched by the DPC, in its role as the Lead Supervisory Authority for TikTok, to examine the lawfulness of TikTok’s transfers of personal data [1] of users of the TikTok platform in the EEA to the People’s Republic of China (“China”). In addition, the Inquiry examined whether the provision of information to users in relation to such transfers met TikTok’s transparency requirements as required by the GDPR.

The decision, which was made by the Commissioners for Data Protection, Dr Des Hogan and Mr Dale Sunderland, and has been notified to TikTok, finds that TikTok infringed the GDPR regarding its transfers of EEA User Data to China [2] and its transparency requirements [3]. The decision includes administrative fines totalling €530 million and an order requiring TikTok to bring its processing into compliance within 6 months. The decision also includes an order suspending TikTok’s transfers to China if processing is not brought into compliance within this timeframe.

DPC Deputy Commissioner Graham Doyle commented:

“The GDPR requires that the high level of protection provided within the European Union continues where personal data is transferred to other countries.

TikTok’s personal data transfers to China infringed the GDPR because TikTok failed to verify, guarantee and demonstrate that the personal data of EEA users, remotely accessed by staff in China, was afforded a level of protection essentially equivalent to that guaranteed within the EU.

As a result of TikTok’s failure to undertake the necessary assessments, TikTok did not address potential access by Chinese authorities to EEA personal data under Chinese anti-terrorism, counter-espionage and other laws identified by TikTok as materially diverging from EU standards.”

The DPC submitted a draft decision to the GDPR cooperation mechanism on 21 February 2025, as required under Article 60 of the GDPR. No objections to the DPC’s draft decision were raised. The DPC is grateful for the cooperation and assistance of its peer EU/EEA supervisory authorities in this case.

Erroneous information submitted to Inquiry
Throughout the Inquiry, TikTok informed the DPC that it did not store EEA User Data on servers located in China. However, in April 2025, TikTok informed the DPC of an issue that it had discovered in February 2025 where limited EEA User Data had in fact been stored on servers in China, contrary to TikTok’s evidence to the Inquiry. TikTok informed the DPC that this discovery meant that TikTok had provided inaccurate information to the Inquiry.

Deputy Commissioner Doyle added that

“The DPC is taking these recent developments regarding the storage of EEA User Data on servers in China very seriously. Whilst TikTok has informed the DPC that the data has now been deleted, we are considering what further regulatory action may be warranted, in consultation with our peer EU Data Protection Authorities.”

The DPC will publish the full decision and further related information in due course.



[1] The Law on Data Transfers outside the EU
The GDPR provides a high level of protection of personal data throughout the EEA and provides data protection rights to individuals. When personal data is transferred outside of the EEA this can impede the ability of individuals to exercise rights and can circumvent that high level of protection. Therefore, it is crucial that the level of protection ensured by the GDPR should not be undermined in the case of such transfers. Accordingly, transfers of personal data can take place only if the conditions laid down in Chapter V of the GDPR are complied with. This ensures that the high level of protection provided within the European Union continues where personal data is transferred to a third country.

Article 45(1) GDPR provides that a transfer of personal data to a third country may be authorised by a decision of the European Commission to the effect that the third country, a territory or one or more specified sectors within that third country, ensures an adequate level of protection (“Adequacy Decision”).

To-date, the European Commission has made Adequacy Decisions in respect of Andorra, Argentina, Canada, Faroe Islands, Guernsey, Israel, Isle of Man, Japan, Jersey, New Zealand, Republic of Korea, Switzerland, the United Kingdom, USA and Uruguay.

Under the GDPR where an organisation (“Data Controller”) intends to transfer personal data outside the EU/ EEA to a third country and where no Adequacy Decision exists between the EU and that third country, such transfers can only occur if other applicable provisions of the GDPR (Chapter V) are met such as Standard Contractual Clauses. These provisions place the responsibility on the organisation to verify, guarantee and demonstrate that the law and practices of that country guarantees a level of protection essentially equivalent to that guaranteed within EU.



[2] The DPC’s Findings regarding the lawfulness of the Transfers
In this Inquiry TikTok Ireland was required to assess if Chinese law guaranteed an essentially equivalent level of protection to EU law. The Decision finds that TikTok’s transfers to China infringed Article 46(1) GDPR because it failed to verify, guarantee and demonstrate that the supplementary measures and the Standard Contractual Clauses (“SCCs”) were effective to ensure that the personal data of EEA users transferred via remote access were afforded a level of protection essentially equivalent to that guaranteed within the EU. While TikTok maintains that transfers via remote access are not subject to the laws and practices in question, TikTok’s own assessment of Chinese law provided to the DPC during the Inquiry set out how aspects of the Chinese legal framework preclude a finding of essential equivalence to EU law. The DPC had regard to this assessment and to the Chinese laws identified by TikTok which materially diverge from EU standards such as the Anti-Terrorism Law, the Counter-Espionage Law, the Cybersecurity Law and the National Intelligence Law. In particular, the DPC found that TikTok’s failure to adequately assess the level of protection provided by Chinese law and practices to the personal data of EEA users the subject of transfers, which said personal data is processed in China, not only directly impacted TikTok’s ability to select appropriate safeguards and supplementary measures, but also prevented TikTok from verifying and guaranteeing an essentially equivalent level of protection.

In exercising corrective powers, the DPC also considered ongoing changes brought about by TikTok under “Project Clover”. Notwithstanding these changes, the DPC found that it is appropriate, necessary and proportionate to order the suspension of the Data Transfers and to order TikTok to bring its processing operations into compliance with Chapter V of the GDPR following a period of 6 months from the period allowed for an appeal against the DPC’s final Decision. The DPC considers 6 months to being a reasonable period to provide TikTok to put an end to the transfers in the circumstances.



[3] The DPC’s Findings regarding Transparency
Article 13(1)(f) GDPR requires data controllers to provide data subjects with information on that controller’s transfers of personal data to a third country. The DPC considered TikTok’s October 2021 EEA Privacy Policy and found that this policy was inadequate in two key respects for the purposes of Article 13(1)(f) GDPR.

First, TikTok’s 2021 Privacy Policy did not name the third countries, including China, to which personal data was transferred. Second, the 2021 Privacy Policy did not explain the nature of the processing operations that constitute the transfer. Specifically, the 2021 Privacy Policy failed to specify that the processing included remote access to personal data stored in Singapore and the United States by personnel based in China.

TikTok updated its Privacy Policy during the course of the Inquiry and provided its December 2022 EEA Privacy Policy to the DPC. That Privacy Policy did identify the third countries to which EEA user data was transferred. That Privacy Policy also informed EEA Users that personal data was stored on servers in the United States and Singapore, and was the subject of remote access by entities in TikTok’s corporate group located in Brazil, China, Malaysia, Philippines, Singapore, and the United States.

The DPC assessed TikTok’s December 2022 EEA Privacy Policy as compliant with the requirements of Article 13(1)(f) GDPR in terms of the Data Transfers subject to the material scope of the Decision. Therefore, the duration of the infringement of Article 13(1)(f) GDPR in the Decision relates to the period from 29 July 2020 to 1 December 2022.

The DPC imposes administrative fines totalling €530 million in this Decision, consisting of a fine of €45 million for its infringement of Article 13(1)(f) GDPR, and a fine of €485 million for its infringement of Article 46(1) GDPR.



EuG: Einordnung von TikTok / Bytedance als Gatekeeper (Torwächter) im Sinn des Digital Markets Act (DMA) durch die EU-Kommission rechtmäßig

EuG
Urteil vom 17.07.2024
T-1077/23
Bytedance ./. Kommission


Das EuG hat entschieden, dass die Einordnung von TikTok / Bytedance als Gatekeeper (Torwächter) im Sinn des Digital Markets Act (DMA) durch die EU-Kommission rechtmäßig ist.

Die Pressemitteilung des Gerichts:
Gesetz über digitale Märkte: Abweisung der Klage von Bytedance (TikTok) gegen den Beschluss der Kommission, mit dem Bytedance als Torwächter benannt wird

Die Gesellschaft Bytedance Ltd stellt über ihre Tochtergesellschaften die Plattform für das soziale Netzwerk TikTok bereit. Mit Beschluss vom 5. September 2023 benannte die Kommission Bytedance nach dem Gesetz über digitale Märkte (Digital Markets Act, im Folgenden: DMA) 1 als Torwächter. Im November 2023 erhob Bytedance gegen diesen Beschluss eine Nichtigkeitsklage. Das Gericht hat auf Antrag von Bytedance beschlossen, in der vorliegenden Rechtssache im beschleunigten Verfahren zu entscheiden.

Mit seinem heutigen Urteil, das acht Monate nach Klageerhebung ergeht, weist das Gericht die Klage von Bytedance ab.

Das Gericht verweist zunächst auf die Entstehungsgeschichte und den Regelungsgehalt des DMA. Insbesondere betont es, dass der Unionsgesetzgeber mit der Verabschiedung des DMA durch die Festlegung von Regeln zur Gewährleistung der Bestreitbarkeit und Fairness der Märkte im digitalen Sektor im Allgemeinen und zugunsten von gewerblichen Nutzern und Endnutzern der von den Torwächtern bereitgestellten zentralen Plattformdienste im Besonderen einen Beitrag zum reibungslosen Funktionieren des Binnenmarkts leisten wollte.

Sodann stellt das Gericht fest, dass die Kommission zu Recht davon ausgehen durfte, dass es sich bei Bytedance um einen Torwächter handelt. Bytedance erreicht unstreitig die im DMA vorgesehenen quantitativen Schwellenwerte, die u. a. ihren globalen Marktwert, die Zahl der Nutzer von TikTok in der Union und die Anzahl der Jahre betreffen, in denen der letztgenannte Schwellenwert für die Zahl der Nutzer erfüllt worden ist, weshalb vermutet werden kann, dass Bytedance ein Torwächter ist. Ferner war das Vorbringen von Bytedance nicht hinreichend substantiiert, um eindeutig die Vermutung zu entkräften, dass Bytedance erheblichen Einfluss auf den Binnenmarkt hat, TikTok den gewerblichen Nutzern als wichtiges Zugangstor zu Endnutzern dient und Bytedance eine gefestigte und dauerhafte Position innehat.

Insbesondere weist das Gericht erstens das Argument von Bytedance zurück, wonach der Umstand, dass ihr globaler Marktwert hauptsächlich auf ihre Tätigkeiten in China zurückzuführen sei, zeige, dass sie keinen erheblichen Einfluss auf den Binnenmarkt habe, was durch ihren geringen Umsatz in der Union belegt werde. Nach Ansicht des Gerichts durfte die Kommission zu Recht davon ausgehen, dass der hohe Marktwert, den Bytedance weltweit hat, in Verbindung mit der großen Zahl der Nutzer von TikTok in der Union die finanzielle Leistungsfähigkeit von Bytedance und ihr Potenzial zur Monetarisierung dieser Nutzer widerspiegelt.

Zweitens weist das Gericht auch das Argument von Bytedance zurück, wonach der Umstand, dass sie nicht über ein Plattformökosystem verfüge und von keinen Netzwerk- oder Bindungseffekten profitiert habe sowie dass TikTok, dessen Nutzer sich zu einem erheblichen Teil zugunsten einer Parallelverwendung mehrerer Dienste entschieden hätten, eine geringere Größenordnung aufweise als andere Onlinedienste sozialer Netzwerke wie Facebook und Instagram, zeige, dass TikTok den gewerblichen Nutzern nicht als wichtiges Zugangstor zu Endnutzern diene.

Insoweit stellt das Gericht u. a. fest, dass es TikTok trotz der von Bytedance geltend gemachten Umstände seit seiner Einführung in der Union im Jahr 2018 gelungen ist, die Zahl seiner Nutzer sehr schnell und exponentiell zu steigern, um in kurzer Zeit eine halb so große Verbreitung wie Facebook und Instagram zu erzielen sowie namentlich bei jungen Nutzern, die auf TikTok mehr Zeit als in anderen sozialen Netzwerken verbringen, eine besonders hohe Bindungsquote zu erreichen.

Drittens weist das Gericht das Vorbringen von Bytedance zurück, mit dem dargetan werden sollte, dass sie keine gefestigte und dauerhafte Position innehabe. Insofern hat Bytedance geltend gemacht, ein neuer Marktteilnehmer zu sein, dem Wettbewerber wie Meta und Alphabet, die neue Dienste wie Reels und Shorts in den Verkehr gebracht hätten und durch die Nachahmung wesentlicher Merkmale von TikTok schnell gewachsen seien, seine Position erfolgreich streitig gemacht hätten. Das Gericht stellt u. a. fest, dass TikTok zwar im Jahr 2018 ein neuer Marktteilnehmer im Binnenmarkt war, mit dem gut etablierten Betreibern wie Meta und Alphabet deren Position streitig gemacht werden sollte, und dass sich seine Position in den folgenden Jahren schnell gefestigt, wenn nicht gar gestärkt hat, und dies trotz der Einführung konkurrierender Dienste wie Reels und Shorts, um in kurzer Zeit, gemessen an der Zahl der Nutzer in der Union, eine halb so große Verbreitung wie Facebook und Instagram zu erreichen.

Das Gericht gelangt ferner zu dem Ergebnis, dass die von der Kommission angewandten Beweisanforderungen richtig waren und dass die Kommission bei ihrer Beurteilung des Vorbringens von Bytedance zwar einige Fehler begangen hat, diese aber keinen Einfluss auf die Rechtmäßigkeit des angefochtenen Beschlusses hatten.

Schließlich weist das Gericht das Vorbringen von Bytedance zur angeblichen Verletzung ihrer Verteidigungsrechte und des Grundsatzes der Gleichbehandlung zurück.


Den Volltext der Entscheidung finden Sie hier:


EU-Kommission: Weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite

Die EU-Kommission hat ein weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite eingleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet Verfahren gegen TikTok im Rahmen des Gesetzes über digitale Dienste wegen des Starts von TikTok Lite in Frankreich und Spanien ein und teilt ihre Absicht mit, das Belohnungsprogramm in der EU auszusetzen

Die Kommission hat heute ein zweites förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste (DSA) eingeleitet. Mit der heutigen Eröffnung soll geprüft werden, ob das Unternehmen bei der Gründung von TikTok Lite in Frankreich und Spanien möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Die Kommission ist besorgt darüber, dass das „Task and Reward Program“ von TikTok Lite, das es Nutzern ermöglicht, Punkte zu erhalten, wenn sie bestimmte „Aufgaben“ auf TikTok erfüllen – wie z. B. Videos, Liking-Inhalte, Nachbereiter, Einladung von Freunden zum Beitritt zu TikTok usw. – ohne vorherige sorgfältige Bewertung der damit verbundenen Risiken, insbesondere der mit dem Suchteffekt der Plattformen verbundenen Risiken, und ohne wirksame Risikominderungsmaßnahmen zu ergreifen. Dies ist für Kinder besonders besorgniserregend, da auf TikTok vermutet wird, dass es keine wirksamen Mechanismen zur Altersüberprüfung gibt. Das Fehlen wirksamer Mechanismen zur Altersüberprüfung und die mutmaßliche suchterzeugende Gestaltung der Plattformen werden bereits im ersten förmlichen Verfahren gegen TikTok untersucht.

Die Untersuchung wird sich daher auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtung von TikTok, vor der Einführung von Funktionen, in diesem Fall des Programms „Task and Reward Lite“, einen Risikobewertungsbericht zu erstellen und vorzulegen, die wahrscheinlich kritische Auswirkungen auf Systemrisiken haben werden. Insbesondere negative Auswirkungen auf die psychische Gesundheit, einschließlich der psychischen Gesundheit Minderjähriger, insbesondere aufgrund des neuen Merkmals, das Suchtverhalten stimuliert.
- Die von TikTok ergriffenen Maßnahmen zur Minderung dieser Risiken.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Darüber hinaus übermittelte die Kommission TikTok auf der Grundlage eines Beschlusses der Kommission ein förmliches Auskunftsverlangen, in dem das Unternehmen zur Beantwortung seines Auskunftsersuchens vom 17. April 2024 aufgefordert wurde. Insbesondere hatte die Kommission TikTok aufgefordert, bis zum 18. April den Risikobewertungsbericht für TikTok Lite sowie Informationen über die Maßnahmen vorzulegen, die die Plattform ergriffen hat, um potenzielle systemische Risiken dieser neuen Funktionen zu mindern. TikTok hat dieses Dokument nicht fristgerecht vorgelegt.

TikTok hat nun bis zum 23. April Zeit, der Kommission den Risikobewertungsbericht und bis zum 3. Mai die übrigen angeforderten Informationen vorzulegen.

Falls TikTok das Auskunftsersuchen der Kommission nicht innerhalb der angegebenen Fristen per Beschluss beantwortet, kann die Kommission Geldbußen in Höhe von bis zu 1 % des jährlichen Gesamtumsatzes oder des weltweiten Gesamtumsatzes des Anbieters sowie Zwangsgelder in Höhe von bis zu 5 % des durchschnittlichen Tageseinkommens des Anbieters oder des weltweiten Jahresumsatzes verhängen.

Da TikTok nicht in der Lage war, die Risikobewertung vorzulegen, die vor der Einführung von TikTok Lite hätte durchgeführt werden müssen, vermutet die Kommission einen prima facie Verstoß gegen das Gesetz über digitale Dienste und ist der Auffassung, dass die Gefahr einer schwerwiegenden Schädigung der psychischen Gesundheit der Nutzer besteht. Die Kommission hat TikTok daher auch ihre Absicht mitgeteilt, vorläufige Maßnahmen zu ergreifen, die in der Aussetzung des Programms „TikTok Lite“ in der EU bis zur Bewertung seiner Sicherheit bestehen. Es könnte verlängert werden, wenn dies notwendig und verhältnismäßig ist. Vor der förmlichen Annahme der Aussetzung wurde TikTok bis zum 24. April Zeit eingeräumt, in seiner Verteidigung Argumente vorzubringen, die die Kommission sorgfältig prüfen wird.

Nächste Schritte
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße zu überwachen und durchzusetzen.

Hintergrund
Am 25. April 2023 benannte die Kommission TikTok gemäß dem Gesetz über digitale Dienste auf der Grundlage der TikTok -Nutzerdatenbank, die den Schwellenwert von 45 Millionen durchschnittlichen aktiven Nutzern in der EU erreicht, TikTok als sehr große Online-Plattform. Seit Ende August 2023 unterliegt TikTok den Verpflichtungen aus dem Gesetz über digitale Dienste.

TikTok Lite ist eine neue App mit einer Funktion für Nutzer ab 18 Jahren, die als „Task and Reward Program“ bezeichnet wird und es Nutzern ermöglicht, bei der Ausführung bestimmter „Aufgaben“ auf TikTok Punkte zu erhalten, wie z. B. Videos anschauen, Liking-Inhalte, Nachschaffende, Einladung von Freunden zum TikTok usw. Diese Punkte können gegen Belohnung wie Amazon-Gutscheine, Geschenkkarten über PayPal oder TikTok-Münzen, die für Kipper ausgegeben werden können, ausgetauscht werden. TikTok Lite wurde im letzten Monat in Frankreich und Spanien ins Leben gerufen.

Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Im Februar 2024 leitete die Kommission ein erstes förmliches Verfahren gegen TikTok ein, um zu prüfen, ob TikTok möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit dem Schutz Minderjähriger, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte zusammenhängen. Die Untersuchung ist noch nicht abgeschlossen.

Derzeit sind zwei weitere förmliche Verfahren im Rahmen des Gesetzes über digitale Dienste anhängig: eine gegen X und eine gegen AliExpress.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EU-Kommission: Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet

Die EU-Kommission hat Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet.

Die Pressemitteilung der EU-Kommission:
Commission opens non-compliance investigations against Alphabet, Apple and Meta under the Digital Markets Act

Today, the Commission has opened non-compliance investigations under the Digital Markets Act (DMA) into Alphabet's rules on steering in Google Play and self-preferencing on Google Search, Apple's rules on steering in the App Store and the choice screen for Safari and Meta's “pay or consent model”.

The Commission suspects that the measures put in place by these gatekeepers fall short of effective compliance of their obligations under the DMA.

In addition, the Commission has launched investigatory steps relating to Apple's new fee structure for alternative app stores and Amazon's ranking practices on its marketplace. Finally, the Commission has ordered gatekeepers to retain certain documents to monitor the effective implementation and compliance with their obligations.

Alphabet's and Apple's steering rules

The Commission has opened proceedings to assess whether the measures implemented by Alphabet and Apple in relation to their obligations pertaining to app stores are in breach of the DMA. Article 5(4) of the DMA requires gatekeepers to allow app developers to “steer” consumers to offers outside the gatekeepers' app stores, free of charge.

The Commission is concerned that Alphabet's and Apple's measures may not be fully compliant as they impose various restrictions and limitations. These constrain, among other things, developers' ability to freely communicate and promote offers and directly conclude contracts, including by imposing various charges.

Alphabet's measures to prevent self-preferencing

The Commission has opened proceedings against Alphabet, to determine whether Alphabet's display of Google search results may lead to self-preferencing in relation to Google's vertical search services (e.g., Google Shopping; Google Flights; Google Hotels) over similar rival services.

The Commission is concerned that Alphabet's measures implemented to comply with the DMA may not ensure that third-party services featuring on Google's search results page are treated in a fair and non-discriminatory manner in comparison with Alphabet's own services, as required by Article 6(5) of the DMA.

Apple's compliance with user choice obligations

The Commission has opened proceedings against Apple regarding their measures to comply with obligations to (i) enable end users to easily uninstall any software applications on iOS, (ii) easily change default settings on iOS and (iii) prompt users with choice screens which must effectively and easily allow them to select an alternative default service, such as a browser or search engine on their iPhones.

The Commission is concerned that Apple's measures, including the design of the web browser choice screen, may be preventing users from truly exercising their choice of services within the Apple ecosystem, in contravention of Article 6(3) of the DMA.

Meta's “pay or consent” model

Finally, the Commission has opened proceedings against Meta to investigate whether the recently introduced “pay or consent” model for users in the EU complies with Article 5(2) of the DMA which requires gatekeepers to obtain consent from users when they intend to combine or cross-use their personal data across different core platform services.

The Commission is concerned that the binary choice imposed by Meta's “pay or consent” model may not provide a real alternative in case users do not consent, thereby not achieving the objective of preventing the accumulation of personal data by gatekeepers.

Other investigatory and enforcement steps

The Commission is also taking other investigatory steps to gather facts and information to clarify whether:

Amazon may be preferencing its own brand products on the Amazon Store in contravention of Article 6(5) of the DMA, and
Apple's new fee structure and other terms and conditions for alternative app stores and distribution of apps from the web (sideloading) may be defeating the purpose of its obligations under Article 6(4) of the DMA.
The Commission has also adopted five retention orders addressed to Alphabet, Amazon, Apple, Meta, and Microsoft, asking them to retain documents which might be used to assess their compliance with the DMA obligations, so as to preserve available evidence and ensure effective enforcement.

Finally, the Commission has granted Meta an extension of 6 months to comply with the interoperability obligation (Article 7 DMA) for Facebook Messenger. The decision is based on a specific provision in Article 7(3)DMA and follows a reasoned request submitted by Meta. Facebook Messenger remains subject to all other DMA obligations.

Next steps

The Commission intends to conclude the proceedings opened today within 12 months. If warranted following the investigation, the Commission will inform the concerned gatekeepers of its preliminary findings and explain the measures it is considering taking or the gatekeeper should take in order to effectively address the Commission's concerns.

In case of an infringement, the Commission can impose fines up to 10% of the company's total worldwide turnover. Such fines can go up to 20% in case of repeated infringement. Moreover, in case of systematic infringements, the Commission may also adopt additional remedies such as obliging a gatekeeper to sell a business or parts of it, or banning the gatekeeper from acquisitions of additional services related to the systemic non-compliance.

Background

The DMA aims to ensure contestable and fair markets in the digital sector. It regulates gatekeepers, which are large digital platforms that provide an important gateway between business users and consumers, whose position can grant them the power to create a bottleneck in the digital economy.

Alphabet, Amazon, Apple, ByteDance, Meta and Microsoft, the six gatekeepers designated by the Commission in September 2023, had to fully comply with all DMA obligations by 7 March 2024. The Commission has assessed the compliance reports setting out gatekeepers' compliance measures, and gathered feedback from stakeholders, including in the context of workshops.

Today's formal non-compliance proceedings against Alphabet, Apple and Meta have been opened pursuant to Article 20 DMA in conjunction with Articles 13 and 29 DMA for breach of Articles 5(2), 5(4), 6(3) and 6(5) DMA respectively.



EU-Kommission: Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen der Bereiche Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung

Die EU-Kommission hat ein förmliches Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen möglicher Mängel in den Bereichen Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok in Bereichen im Zusammenhang mit dem Jugendschutz, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich einer Analyse des von TikTok im September 2023 übermittelten Risikobewertungsberichts sowie der Antworten von TikTok auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten, zum Schutz Minderjähriger und zum Datenzugang), hat die Kommission beschlossen,ein förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

Die Einhaltung der Verpflichtungen im Rahmen des Gesetzes über digitale Dienste im Zusammenhang mit der Bewertung und Minderung systemischer Risiken in Bezug auf tatsächliche oder vorhersehbare negative Auswirkungen, die sich aus der Gestaltung des TikTok-Systems, einschließlich algorithmischer Systeme, ergeben und die Verhaltensabhängigkeit stimulieren und/oder sogenannte „Kabbit-Locheffekte“ hervorrufen können. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden der Person, die Achtung der Rechte des Kindes sowie dessen Auswirkungen auf Radikalisierungsprozesse entgegenzuwirken. Darüber hinaus sind die diesbezüglich bestehenden Risikominderungsmaßnahmen, insbesondere die von TikTok verwendeten Instrumente zur Altersüberprüfung, um den Zugang Minderjähriger zu unangemessenen Inhalten zu verhindern, möglicherweise nicht angemessen, verhältnismäßig und wirksam;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere in Bezug auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Gestaltung und Funktionsweise ihrer Empfehlungssysteme;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf TikTok bereitzustellen;
Die von TikTok ergriffenen Maßnahmen zur Erhöhung der Transparenz seiner Plattform. Die Untersuchung betrifft mutmaßliche Mängel beim Zugang von Forschern zu öffentlich zugänglichen Daten von TikTok gemäß Artikel 40 des Gesetzes über digitale Dienste.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1, Artikel 28 Absatz 1, Artikel 39 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die einen Verstoß nach dem Gesetz über digitale Dienste darstellen könnten, beispielsweise im Zusammenhang mit den Verpflichtungen eines Anbieters in Bezug auf die Verbreitung illegaler Inhalte wie terroristische Inhalte oder sexuellen Kindesmissbrauch im Internet oder die Meldung eines Verdachts auf Straftaten.

Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die von anderen Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergriffen werden.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
TikTok wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 135,9 Millionen monatlich aktive Nutzer in der EU hat. Als VLOP musste TikTok vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von im Gesetz über digitale Dienste festgelegten Verpflichtungen beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.