Das LG Kiel hat entschieden, dass der Betreiber einer Online-Datenbank für Wirtschaftsinformationen für falsche KI-generierte Inhalte haftet.
Aus den Entscheidungsgründen: 1. Der Klägerin steht ein Unterlassungsanspruch aus §§ 1004 Abs. 1 S.2 analog, 823 Abs. 1 BGB i.V.m. Art. 2 Abs. 1, 19 Abs. 3 GG zu, dass die Beklagte es unterlässt zu behaupten, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht wird (siehe Anlage K2).
a) § 1004 BGB ist analog und das allgemeine Persönlichkeitsrecht nach Art. 19 Abs. 3 GG auch auf die Klägerin anwendbar.
Unmittelbar schützt § 1004 BGB nur das Eigentum. Wegen ähnlichen Schutzes anderer absoluter Rechte wird § 1004 BGB analog auf alle absoluten Rechte des § 823 BGB angewendet (Grüneberg BGB/ Herrler § 1004 BGB Rn. 4). Eine juristische Person kann sich auf den Ehrenschutz durch das allgemeine Persönlichkeitsrecht berufen, wenn sie dieses Rechtsschutzes aus ihrem Wesen als Zweckschöpfung des Rechts und ihren Funktionen bedarf (BGH, Urteil vom 04.04.2017 - VI ZR 123/16, Rz. 16). Geschützt wird durch Art. 2 Abs. 1, Art. 1 Abs. 1 i.V.m. Art. 19 Abs. 3 GG auch der soziale Geltungsanspruch eines Wirtschaftsunternehmens (BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 12). Als mittelständisches Wirtschaftsunternehmen lebt die Klägerin von ihrem Ruf und wird deshalb auch vom Wesensgehalt des allgemeinen Persönlichkeitsrecht nach Art. 19 Abs. 3 GG erfasst.
Die Klägerin ist in den äußerungsrechtlichen Schutzgehalten ihres Unternehmenspersönlichkeitsrechts betroffen.
Zur Erfassung des Inhalts der von der Klägerin beanstandeten Äußerung ist diese auszulegen. Maßgeblich für die Deutung einer Äußerung ist weder die subjektive Absicht des sich Äußernden noch das subjektive Verständnis des von der Äußerung Betroffenen, sondern der Sinn, den sie nach dem Verständnis eines unvoreingenommenen und verständigen Publikums hat (BVerfG, Beschluss vom 25.10.2012 - 1 BvR 901/11, Rz. 20). Auszugehen ist dabei stets vom Wortlaut der Äußerung, deren Sinn allerdings auch von dem sprachlichen Kontext, in dem die umstrittene Äußerung steht und von den erkennbaren Begleitumständen, unter denen sie fällt, bestimmt wird (BVerfG, a.a.O.). Dementsprechend ist die isolierte Betrachtung eines Äußerungsteils regelmäßig nicht zulässig (BGH, Urteil vom 16.11.2004 - VI ZR 298/03, Rz. 23). Ausgehend hiervon muss bei der Auslegung der streitgegenständlichen Mitteilung maßgeblich berücksichtigt werden, wie die Beklagte unter dem Menüpunkt „Über uns" ihren Nutzern die Herkunft der von ihr bereitgestellten Informationen erklärt (siehe Anlage T1):
XXX analysiert Handelsregisterbekanntmachungen und andere Pflichtveröffentlichungen deutscher Firmen, um Wirtschaftsinformationen zu gewinnen, insbesondere zu finanziellen Kennzahlen und zu Zusammenhängen zwischen Firmen untereinander sowie zu Personen. Dazu werden Methoden der Big-Data Verarbeitung
und der Künstlichen Intelligenz (KI) verwendet.
Demnach versteht das unvoreingenommene und verständige Publikum die Mitteilung (Anlage K2) so, dass die Klägerin eine Pflichtmitteilung hinsichtlich ihrer Löschung wegen Vermögenslosigkeit nach § 394 FamFG machen musste und entsprechend vor der Löschung steht.
Während das Recht auf informationelle Selbstbestimmung Schutz davor bietet, dass Dritte sich individueller Daten bemächtigen, und sie in nicht nachvollziehbarerweise als Instrument nutzen, um die Betroffenen auf Eigenschaften, Typen oder Profile festzulegen, auf die sie keinen Einfluss haben und die aber für die freie Entfaltung der Persönlichkeit sowie eine gleichberechtigte Teilhabe in der Gesellschaft von erheblicher Bedeutung sind, bietet das Persönlichkeitsrecht in seiner äußerungsrechtlichen Ausprägung Schutz vor den Gefährdungen, die sich für die Persönlichkeitsentfaltung aus der sichtbaren Verbreitung bestimmter Informationen im öffentlichen Raum ergeben (BVerfG, Beschluss vom 06.11.2019- 1 BvR 16/13, Rz. 89 ff.; BGH, Urteil vom 26.11.2019 - VI ZR 12/19, Rz. 27 ff.; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 15). Gegen Letzteres wendet sich die Klägerin, weil sie sie dagegen zur Wehr setzt, dass die Beklagte bei Suchanfragen nach ihr, der Klägerin, ihren Nutzern unter anderem die streitgegenständliche Mitteilung (Anlage K2) angezeigt hat.
Die Klägerin wird durch die Äußerung der Beklagten in ihrem sozialen Geltungsanspruch berührt, weil sich daraus ergibt, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht würde, was sich abträglich auf ihr Ansehen in der Öffentlichkeit und ihre Kreditwürdigkeit auswirkt. Offenbleiben kann, ob die Beklagte, wie sie meint, ein haftungsprivilegierter Host-Provider im Sinne von §§ 2, Abs. 1 Nr. 1, 10 TMG ist. Das Haftungsprivileg des § 10 Satz 1 TMG erstreckt sich nur auf die strafrechtliche Verantwortung und die Schadensersatzhaftung eines Diensteanbieters von Telemedien im Sinne von § 2 Satz 1 Nr. 1 TMG (BGH, Versäumnisurteil vom 25.10.2011- VI ZR 93/10, Rz. 19) und lässt die Möglichkeit unberührt, den Diensteanbieter wegen einer vorangegangenen Rechtsverletzung auf Unterlassung in Anspruch zu nehmen (BGH, Urteil vom 01.03.2016 - VI ZR 34/15, Rz. 19 f.).
Dieser Eingriff in das allgemeine Persönlichkeitsrecht der Klägerin ist auch rechtswidrig gewesen.
Da das Persönlichkeitsrecht ein Rahmenrecht ist, dessen Reichweite nicht absolut feststeht, kann erst durch eine Abwägung der widerstreitenden grundrechtlich geschützten Belange, bei der die besonderen Umstände des Einzelfalls sowie die betroffenen Grundrechte zu berücksichtigen sind, bestimmt werden, ob der Eingriff in das Persönlichkeitsrecht rechtswidrig gewesen ist (BGH, Urteil vom 01.03.2016 – VI ZR 34/15, Rz. 30). Nichts anderes gilt für das Recht am eingerichteten und ausgeübten Gewerbetrieb. Dieses Recht stellt einen offenen Tatbestand dar, dessen Inhalt und Grenzen sich erst aus einer Abwägung mit den im Einzelfall konkret kollidierenden Interessen anderer ergeben (BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 16). Demnach ist das durch Art. 2 Abs. 1, 12 Abs. 1 und 19 Abs. 3 GG geschützte Interesse der Klägerin an ihrer sozialen Anerkennung und wirtschaftlichen Stellung mit der in Art. 5 Abs. 1 GG verankerten Meinungsfreiheit und Kommunikationsfreiheit der Beklagten sowie ihrer durch Art. 12 Abs. 1 GG geschützten Unternehmensfreiheit abzuwägen, bei deren Einschränkung die durch Art. 5 Abs. 1 GG geschützte Meinungs- und Informationsfreiheit der Nutzer des von der Beklagten betriebenen Portals zu berücksichtigen ist (vgl. BGH, Urteil vom 27.07.2020 - VI ZR 405/18, Rz. 33 und 36).
Die Beklagte will sich zwar gar nicht auf ihre Meinungsfreiheit berufen, weil sie den Rechtsstandpunkt einnimmt, ihr sei ähnlich einem Suchmaschinenbetreiber nicht an der Verbreitung einer bestimmten Meinung, sondern nur daran gelegen, die potentiellen Interessen ihrer Nutzer möglichst optimal zu befriedigen (vgl. BVerfG, Beschluss vom 6. November 2019-1 BvR 276/17, Rz. 106). Wie jedoch bereits ausgeführt wurde, ist die streitgegenständliche Äußerung nicht mit der typischen Dienstleistung eines Suchmaschinenbetreibers vergleichbar, weil die Beklagte nach der obigen Auslegung eine eigene Stellungnahme abgegeben hat. Es würde ihren Rechtsschutz erheblich verkürzen, wenn man ihr in dieser Situation den Schutz von Art. 5 Abs. 1 GG versagen würde, nur weil sie sich darauf nicht beruft.
Eine Abwägung der widerstreitenden Interessen ist allerdings entbehrlich, wenn es sich um Schmähkritik (oder - hier gänzlich fernliegend - um eine Formalbeleidigung oder einen Verstoß gegen die Menschenwürde) handelt, weil diese am Schutz der Meinungsfreiheit nach Art. 5 Abs. 1 Satz 1 GG nicht teilhaben (BVerfG, Beschluss vom 19.05.2020 - 1 BvR 2397/19, Rz. 19 und 21). Die Mitteilung der Beklagten ist jedoch nicht als Schmähkritik zu werten.
Wegen seines die Meinungsfreiheit verdrängenden Effekts ist der Begriff der Schmähkritik eng auszulegen (BVerfG, a.a.O., Rz. 20; BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 18). Von einer Schmähung ist nur auszugehen, wenn eine Äußerung keinen irgendwie nachvollziehbaren Bezug mehr zu einer sachlichen Auseinandersetzung hat und es bei ihr im Grunde nur um das grundlose Verächtlichmachen der betroffenen Person als solcher geht (BVerfG, a.a.O., Rz. 19; BGH, Urteil vom 27.02.2018 - VI ZR 489/16, Rz. 37). Daher stellt auch eine überzogene, ungerechte oder gar ausfällige Kritik noch keine Schmähung dar (BVerfG, a.a.O., Rz. 18; BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 18). Auch bei dieser Auslegungsfrage ist die Äußerung in ihrem Gesamtzusammenhang zu betrachten (BGH, a.a.O., Rz. 19). Demnach stellt die streitgegenständliche Äußerung keine Schmähkritik dar. Die Aussage, die Klägerin würde wegen Vermögenslosigkeit nach § 394 FamFG gelöscht, kann zwar ihren sozialen Geltungsanspruch und ihre wirtschaftliche Stellung gegenüber anderen Marktteilnehmern ganz erheblich beeinträchtigen, unter Umständen sogar gefährden. Die in Rede stehende Meldung ist jedoch sachlich gehalten.
Für die demnach gebotene Abwägung ist zu berücksichtigen, dass es sich bei der Aussage um eine unwahre Tatsachenbehauptung handelt.
Tatsachen können anders als Meinungen wahr oder unwahr sein. Der Unterschied liegt in der Beziehung zwischen der Äußerung und der Realität (BVerfGE 90, 241 (247) = NJW 1994, 1779). Der Wahrheitsgehalt der Äußerung steht im Vordergrund. Hierüber kann im Wege einer Beweisaufnahme erkannt werden. Meinungen können hingegen nicht wahr oder unwahr sein, sondern zum Beispiel wahrhaftig oder unaufrichtig, überlegt oder unbedacht (BVerfGE 33, 1 (14) = NJW 1972, 811).
Die Aussage, dass der Klägerin die Löschung nach § 394 FamFG bevorsteht, ist entweder richtig oder falsch. Eine Beweisaufnahme darüber wäre denkbar. Insofern handelt es sich bei der Aussage der Beklagten um eine Tatsachenbehauptung.
Tatsachen sind nur dann grundgesetzlich geschützt, wenn sie Voraussetzung für die Bildung von Meinungen sind und zur Meinungsbildung beitragen (BVerfGE 85, 1 (15) = NJW 1992, 1439). Die Richtigkeit der Information hat Bedeutung für den grundrechtlichen Schutz, denn unwahre Äußerungen sind kein schützenswertes Gut (BVerfGE 54, 208 (219) = NJW 1980, 2072). Kennt der sich Äußernde die Unwahrheit, lügt er also bewusst, oder ist die Unwahrheit der Tatsache im Zeitpunkt der Äußerung erwiesen, entfällt grundrechtlicher Schutz, da diese Äußerungen nicht einmal vom Schutzbereich erfasst sind (BVerfGE 99, 185 (197) = NJW 1999, 1322).
Die Beklagte bediente sich einer künstlichen Intelligenz, um die Registerpublikationen auf ihrer Website zu veröffentlichen. Die Beklagte hatte damit unbestritten keine positive Kenntnis von der Unrichtigkeit der Meldung. Von dieser Tatsache hat sie erst erfahren, als die Klägerin an sie herangetreten ist (Bl. 17 d.A.).
Dass die Meldung unrichtig ist, führt die Beklagte selbst aus (Bl. 19 d.A.). Demnach lag eine Verwechslung mit der XXX, Amtsgericht XXX HRB XXX, beim Registergericht vor (XXX vs XXX).
Die zentrale Abwägung zwischen dem Persönlichkeitsrecht der Klägerin mit der Meinungsfreiheit der Beklagten ergibt ein deutliches Überwiegen auf Seiten der Klägerin.
Die streitgegenständliche Äußerung betrifft den durch Art. 2 Abs. 1, 19 Abs. 3 GG gewährleisteten sozialen Geltungsanspruch der Klägerin als Wirtschaftsunternehmen und ihr durch Art. 12, 19 Abs. 3 GG gewährleistetes Recht am eingerichteten und ausgeübten Gewerbebetrieb. Die unternehmerische Tätigkeit vollzieht sich zwar von vornherein im Kontakt mit der Umwelt. Dementsprechend muss sich ein Gewerbetreibender wertende, nicht mit unwahren Tatsachenbehauptungen verbundene Kritik an seiner gewerblichen Leistung in der Regel auch dann gefallen lassen, wenn sie scharf formuliert ist (BGH, Urteil vom 16.12.2014 – VI ZR 39/14, Rz. 21). Allerdings muss der Gewerbetreibende nicht hinnehmen, dass seine wirtschaftliche Stellung durch falsche Tatsachenbehauptungen geschwächt wird. Dies gilt insbesondere für die streitgegenständliche Äußerung, weil die falsche Meldung, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht würde, jemanden ernstlich davon abhalten kann, mit der Klägerin in geschäftlichen Kontakt zu treten. Berücksichtigt werden muss dabei, dass die Beklagte bei Suchanfragen zum Namen der Klägerin an zweiter Stelle, also besonders prominent, auftaucht und damit ein breites an der Klägerin interessiertes Publikum erreicht (Anlage K5). Der Eingriff in das Schutzrecht ist entsprechend erheblich, die Interessen der Beklagten müssen hinter denen der Klägerin zurücktreten.
b) Die Beklagte ist unmittelbare Störerin im Sinne von § 1004 Abs. 1 BGB. Als Störer ist, unabhängig von einem Verschulden, jeder anzusehen, der die Störung adäquat kausal herbeigeführt hat oder dessen Verhalten eine Beeinträchtigung befürchten lässt (Grüneberg BGB/ Herrler § 1004 BGB Rn. 16 f.; BGH NZM 19, 893 Tz. 15). Auch der mittelbare Störer ist von der Norm umfasst, der in irgendeiner Weise willentlich und adäquat kausal an der Herbeiführung der rechtswidrigen Beeinträchtigung mitgewirkt hat (BGH, Urteil vom 28.07.2015 – VI ZR 340/14, Rz. 34).
Die Klägerin ist jedoch als unmittelbare Störerin anzusehen, weil sie sich willentlich zur Beantwortung von Suchanfragen einer eigenen Software bedient, die Informationen aus den veröffentlichten Pflichtmitteilungen extrahiert und aufbereitet veröffentlicht. Die Beklagte kann sich nicht darauf zurückziehen, sie sei an diesem automatischen Vorgang nicht beteiligt gewesen, weil sie sich bewusst zur Beantwortung von Suchanfragen ihrer Nutzer einer künstlichen Intelligenz bedient hat, die in Fällen wie diesem unzulänglich programmiert war, weil sie nicht erkannt hat, dass vorliegend die XXX, Amtsgericht XXX HRB XXX, gemeint war und ein Zuordnungsfehler (XXX vs XXX) vorlag (so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 19). Zum anderen haftet der Betreiber eines Portals auch dann als unmittelbarer Störer für die von einem Dritten eingestellten Inhalte, wenn er sich diese aus Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu eigen gemacht und dafür nach außen erkennbar die inhaltliche Verantwortung übernommen hat (BGH, Urteil vom 01.03.2016 – VI ZR 34/15, Rz. 17; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 19). Dies schafft die Beklagte dadurch, dass sie die Pflichtveröffentlichungen zu einem Unternehmen bei sich auf der Seite bündelt und die Informationen teilweise untereinander verknüpft.
c) Eine Wiederholungsgefahr liegt vor.
Diese liegt vor, wenn es die auf Tatsachen gegründete objektive ernstliche Besorgnis weiterer Störungen gibt. In der Regel begründet die vorangegangene rechtswidrige Beeinträchtigung eine tatsächliche Vermutung für die Wiederholungsgefahr (BGH NJW 12, 3781; Grüneberg BGB/ Herrler § 1004 BGB Rn. 32), an deren Wiederlegung durch den Störer hohe Anforderungen zu stellen sind (BGH NJW 99, 356).
Die aus der rechtswidrigen Beeinträchtigung folgende Vermutung konnte die Beklagte bisher nicht entkräften. Ihr Verweis, dass sie lediglich fremde Daten aus Pflichtveröffentlichungen ohne Prüfung veröffentliche, bekräftigt sogar die Wiederholungsgefahr. Denn die Pflichtinformationen sind nach Aussage der Beklagten, die sich auf das elektronische Handelsregister bezieht, unzuverlässig, sodass es „zu falschen Anzeigen kommt“ (Bl. 19 d.A.). Insofern kann nicht ausgeschlossen werden, dass der gleiche Fehler (Verwechslung XXX vs. XXX) erneut auftritt.
d) Eine den Unterlassungsanspruch ausschließende Duldungspflicht nach § 1004 Abs. 2 BGB kommt vorliegend nicht in Betracht.
2. Der von der Klägerin angekündigte Unterlassungsantrag ist insoweit unbegründet, als dass es auch zukünftige Informationsveröffentlichungen durch die Beklagte einbezieht, die sich nicht auf die vermeintliche Löschung der Klägerin nach § 394 FamFG beziehen.
Das Persönlichkeitsrecht ist ein Rahmenrecht, dessen Reichweite erst durch die Abwägung der betroffenen grundrechtlich geschützten Interessen bestimmt wird und dementsprechend ein aus dem Persönlichkeitsrecht abgeleitetes Gebot, eine Äußerung zu unterlassen, auf die konkrete Verletzungsform beschränkt werden muss, damit die wesentlichen abwägungsrelevanten Gesichtspunkte, die zur Rechtswidrigkeit der Äußerung geführt haben, in die Rechtskraft der Entscheidung miteinbezogen werden (vgl. BGH, Urteil vom 04.12.2018 - VI ZR 128/19, Rz. 19; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 17).
3. Die Klägerin hat gegen die Beklagte einen Anspruch auf Ersatz der vorgerichtlichen Rechtsverfolgungskosten in Höhe des Obsiegens von 527,00 € gemäß §§ 280 Abs. 2, 286 Abs. 1 BGB.
Das Schuldverhältnis ergibt sich aus der Verletzung des allgemeinen Persönlichkeitsrechts der Klägerin gemäß § 823 Abs. 1 BGB.
Angemahnt wurde die Beklagte durch die Klägerin mit Fristsetzung am 21.07.2023, die daraufhin zwar die Meldung von ihrer Website entfernte, jedoch die Unterlassungserklärung nicht unterschrieben hat. Angesichts des erheblichen Eingriffs in das allgemeine Persönlichkeitsrecht der Klägerin war das Tätigwerden eines Rechtsanwalts auch erforderlich.
Die Klägerin kann jedoch die Umsatzsteuer in Höhe von 100,13 € nicht von der Beklagten verlangen. Die Klägerin ist nämlich vorsteuerabzugsberechtigt gemäß § 15 Abs. 1 S. 1 Nr. 1 UstG.Nach § 15 Abs. 1 S. 1 Nr. 1 UStG kann der Unternehmer die gesetzlich geschuldete Steuer für Lieferungen und sonstige Leistungen, die von einem anderen Unternehmer für sein Unternehmen ausgeführt worden sind, als Vorsteuer abziehen, wenn er eine nach den §§ 14, 14a UStG ausgestellte Rechnung besitzt. Auf der Rechnung des Prozessbevollmächtigten der Klägerin ist zwar ein Umsatzsteuerbetrag in Höhe von 155,46 € aufgeführt. Die Klägerin ist jedoch als GmbH Unternehmerin im Sinne des § 2 Abs. 1 S. 1 UStG. Die Beauftragung des Rechtsanwalts erfolgte für das Unternehmen nach § 15 Abs. 1 S. 1 UStG, da eine Unterlassung aufgrund einer Rechtsverletzung aufgrund ihres Unternehmenspersönlichkeitsrechts begehrt wird. Nach dem schadensrechtlichen Bereicherungsverbot soll der Geschädigte über den Schadensersatz keine Bereicherung erlangen. Den in der Abzugsmöglichkeiten liegenden Vorteil muss sich der Geschädigte auf den Schaden anrechnen lassen (BGH, Urteil vom 18.3.2014 – VI ZR 10/13 Rz. 17).
Die EU-Kommission und das CPC-Netz (Netzwerk für die Zusammenarbeit im Verbraucherschutz) haben den Online-Marktplatz Temu angewiesen, die bestehenden Verstöße gegen EU-Verbraucherschutzvorschriften abzustellen.
Die Pressemitteilung des EU-Kommission: Verbraucherschutz: Kommission und nationale Behörden fordern Temu zur Einhaltung der EU-Vorschriften auf
Im Anschluss an eine koordinierte Untersuchung auf europäischer Ebene haben das Netzwerk für die Zusammenarbeit im Verbraucherschutz (CPC-Netz) und die Europäische Kommission heute den Online-Marktplatz Temu auf mehrere Praktiken auf seiner Plattform hingewiesen, die gegen das EU-Verbraucherrecht verstoßen. Das CPC-Netz hat Temu angewiesen, seine Praktiken mit dem Verbraucherrecht der Europäischen Union in Einklang zu bringen. Temu steht nach wie vor unter Beobachtung und muss dem CPC-Netz weitere Informationen übermitteln. Die Maßnahmen des CPC-Netzes gegen Temu werden von den zuständigen nationalen Behörden Belgiens (Generaldirektion Wirtschaftsinspektion), Deutschlands (Umweltbundesamt) und Irlands (Kommission für Wettbewerb und Verbraucherschutz) geleitet und von der Europäischen Kommission koordiniert.
Die koordinierte Untersuchung des CPC-Netzes deckt ein breites Spektrum von Praktiken ab, mit denen Verbraucherinnen und Verbraucher auf Temu konfrontiert sind. Diese können u. a. irreführend sein oder ihre Kaufentscheidungen unangemessen beeinflussen. Das CPC-Netz untersucht auch, ob Temu die spezifischen Informationspflichten für Online-Marktplätze nach dem Verbraucherrecht einhält.
Letzte Woche leitete die Kommission im Rahmen des Gesetzes über digitale Dienste ein förmliches Verfahren gegen Temu ein. Solche Verfahren und die gemeinsamen Durchsetzungsmaßnahmen des CPC-Netzes ergänzen einander und sollen ein sicheres und vertrauenswürdiges Online-Umfeld gewährleisten, in dem die Verbraucherrechte in Europa umfassend geschützt sind.
Im Sinne der am 13. Dezember in Kraft tretenden Verordnung über die allgemeine Produktsicherheit muss es einen in der EU niedergelassenen Wirtschaftsakteur geben, der dafür verantwortlich ist, die Einhaltung der Produktsicherheitsanforderungen sicherzustellen. Dazu gehören auch spezifische Verpflichtungen für auf Verbraucherinnen und Verbraucher ausgerichtete Online-Marktplätze. Gemäß der genannten Verordnung können die nationalen Marktüberwachungsbehörden anordnen, dass von ihnen als unsicher eingestufte Produkte aus dem Internet entfernt werden. Diese Verpflichtungen ergänzen das Gesetz über digitale Dienste.
Ergebnisse der koordinierten Untersuchung des CPC-Netzes
Die vom CPC-Netz ermittelten problematischen und gegen EU-Verbraucherschutzvorschriften verstoßenden Praktiken von Temu umfassen Folgendes:
Falsche Rabattaktionen: Es wird der Eindruck erweckt, dass Produkte mit einem Nachlass angeboten werden, obwohl dies nicht der Fall ist.
Ausübung von Druck: Es wird der Eindruck vermittelt, dass Produkte nur begrenzt oder für kurze Zeit verfügbar sind, wodurch für Verbraucherinnen und Verbraucher Kaufdruck entsteht.
Erzwungene Spielifizierung: Die Verbraucherinnen und Verbraucher werden gezwungen, ein Glücksrad zu drehen, um auf den Online-Marktplatz zuzugreifen. Dabei werden wesentliche Informationen über die Nutzungsbedingungen im Zusammenhang mit den Gewinnen des Spiels verborgen.
Fehlende und irreführende Informationen: Es werden unvollständige und falsche Informationen über den Rechtsanspruch der Verbraucherinnen und Verbraucher auf Rücksendungen und Erstattungen vermittelt. Temu informiert die Verbraucherinnen und Verbraucher auch nicht im Voraus, dass für den Kaufabschluss ein bestimmter Mindestwert erreicht werden muss.
Gefälschte Bewertungen: Es werden unzureichende Informationen darüber bereitgestellt, wie die Authentizität der auf Temu veröffentlichten Bewertungen sichergestellt wird. Die nationalen Behörden hielten manche Bewertungen für unecht.
Versteckte Kontaktangaben: Verbraucherinnen und Verbraucher können sich bei Fragen oder Beschwerden nicht ohne Weiteres an Temu wenden.
Darüber hinaus ersuchte das CPC-Netz Temu um Informationen, um zu bewerten, ob das Unternehmen weitere Verpflichtungen aus dem EU-Verbraucherrecht erfüllt, wie die Information der Verbraucherinnen und Verbraucher, ob der Verkäufer eines Produkts ein Unternehmen ist oder nicht. Überdies soll gewährleistet sein, dass die Präsentation von Produktrankings, Bewertungen und Ratings nicht irreführend ist, Preisnachlässe korrekt angezeigt und berechnet werden und Angaben zu Umwelteinflüssen richtig und begründet sind.
Nächste Schritte
Temu hat nun einen Monat Zeit, um auf die Ergebnisse der Untersuchung durch das CPC-Netz zu antworten und darzulegen, wie es die ermittelten verbraucherrechtlichen Probleme beheben will. Je nach Antwort von Temu kann das CPC-Netz einen Dialog mit dem Unternehmen aufnehmen. Sollte Temu die vom CPC-Netz geäußerten Bedenken nicht ausräumen, können die nationalen Behörden Durchsetzungsmaßnahmen ergreifen, um die Einhaltung der Vorschriften sicherzustellen. Beispielsweise könnten Geldbußen auf der Grundlage des Jahresumsatzes von Temu in den betreffenden Mitgliedstaaten verhängt werden. Dies gilt unbeschadet der Befugnis der nationalen Behörden, in laufenden Verfahren Durchsetzungsmaßnahmen zu ergreifen.
Hintergrundinformationen
Im Rahmen der Verordnung über die Zusammenarbeit im Verbraucherschutz bilden die nationalen Verbraucherschutzbehörden der 27 EU-Mitgliedstaaten sowie Norwegens und Islands gemeinsam das CPC-Netz, welches grenzüberschreitende Verstöße ermittelt und die EU-Verbraucherschutzvorschriften durchsetzt. Die Europäische Kommission erleichtert und koordiniert gegebenenfalls solche gemeinsamen Untersuchungs- und Durchsetzungsmaßnahmen.
Die verbraucherrechtlichen Verpflichtungen, die das CPC-Netz gegenüber Temu geltend macht, finden sich in der Richtlinie über unlautere Geschäftspraktiken, der Richtlinie über die Rechte der Verbraucher, der Richtlinie über Preisangaben, der Richtlinie über den elektronischen Geschäftsverkehr und der Richtlinie über missbräuchliche Vertragsklauseln.
Temu wurde am 31. Mai 2024 gemäß dem Gesetz über digitale Dienste als sehr große Online-Plattform eingestuft. Temu hatte nach seiner Einstufung vier Monate Zeit, den strengeren Verpflichtungen nachzukommen, die für sehr große Online-Plattformen gelten. Dazu gehört die Verpflichtung, systemische Risiken, die sich aus seinen Diensten ergeben, ordnungsgemäß zu bewerten und zu mindern. Im Anschluss an eine Voruntersuchung leitete die Kommission am 31. Oktober 2024 ein förmliches Verfahren ein, um zu prüfen, ob Temu möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Dabei geht es um die Bewertung, das Management und die Minderung von Risiken, die Transparenz von Empfehlungssystemen und den Datenzugang für Forschende.
Die koordinierte Maßnahme des CPC-Netzes gegen Temu lässt laufende Verfahren der nationalen Behörden unberührt. Bislang haben die ungarische Wettbewerbsbehörde, das polnische Amt für Wettbewerb und Verbraucherschutz und die französische Generaldirektion für Wettbewerb, Verbraucherfragen und Betrugsbekämpfung nationale Verfahren im Zusammenhang mit den Geschäftspraktiken von Temu angekündigt. Ebenso wenig berührt sie Verfahren, die die Europäische Kommission im Rahmen des Gesetzes über digitale Dienste eingeleitet hat oder in Zukunft einleiten könnte. Darüber hinaus schließt die koordinierte Maßnahme weder laufende noch künftige Durchsetzungsmaßnahmen der Marktüberwachungsbehörden im Rahmen des Produktsicherheitsrechts aus.
Die EU-Kommission hat gegen Temu u.a. wegen des Verkaufs illegaler Produkte, suchterzeugender Gestaltung und unzulässiger Produktempfehlungen ein förmliches Verfahren nach dem Digital Services Act (DSAeingeleitet.
Die Pressemitteilung der EU-Kommission: Kommission leitet förmliches Verfahren gegen Temu nach dem Gesetz über digitale Dienste ein
Die Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Temu möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit dem Verkauf illegaler Produkte, der potenziell suchterzeugenden Gestaltung des Dienstes, den Systemen zur Empfehlung von Käufen für Nutzer sowie dem Datenzugang für Forscher zusammenhängen.
Der heutige Beschluss folgt auf eine vorläufige Analyse des von Temu Ende September 2024 vorgelegten Risikobewertungsberichts, der Antworten auf die förmlichen Auskunftsersuchen der Kommission vom 28. Juni 2024 und 11. Oktober 2024 sowie der von Dritten übermittelten Informationen. Die Kommission stützte sich auch auf Informationen, die im Rahmen des Kooperationsmechanismus mit den nationalen Behörden im Rahmen des Europäischen Gremiums der Koordinatoren für digitale Dienste ausgetauscht wurden, insbesondere mit dem irischen Koordinator für digitale Dienste.
Konkret wird sich die Untersuchung auf folgende Bereiche konzentrieren:
Die Systeme, über die Temu verfügt, um den Verkauf nicht konformer Produkte in der Europäischen Union einzuschränken. Es handelt sich unter anderem um Systeme zur Begrenzung des Wiederauftauchens von zuvor suspendierten Schurkenhändlern, von denen bekannt ist, dass sie in der Vergangenheit nicht konforme Produkte verkauft haben, sowie um Systeme zur Begrenzung des Wiederauftauchens nicht konformer Waren.
Die Risiken im Zusammenhang mit der suchterzeugenden Gestaltung des Dienstes, einschließlich spielähnlicher Belohnungsprogramme, und die Systeme, über die Temu verfügt, um die Risiken zu mindern, die sich aus einer solchen suchterzeugenden Gestaltung ergeben, die negative Folgen für das körperliche und geistige Wohlbefinden einer Person haben könnte.
Einhaltung der DSA-Verpflichtungen im Zusammenhang mit der Art und Weise, wie Temu den Nutzern Inhalte und Produkte empfiehlt. Dazu gehört die Anforderung, die wichtigsten Parameter, die in den Empfehlungssystemen von Temu verwendet werden, offenzulegen und den Nutzern mindestens eine leicht zugängliche Option zur Verfügung zu stellen, die nicht auf Profiling basiert.
Einhaltung der DSA-Verpflichtung, Forschern Zugang zu den öffentlich zugänglichen Daten von Temu zu gewähren.
Temu würde nach dem Gesetz über digitale Dienste haftbar gemacht, wenn sich der Verdacht der Kommission als richtig erweisen würde, da diese Mängel Verstöße gegen die Artikel 27, 34, 35, 38 und 40 des Gesetzes über digitale Dienste darstellen würden. Die Kommission wird nun vorrangig eine eingehende Untersuchung durchführen. Die Einleitung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.
Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweise sammeln, indem sie beispielsweise zusätzliche Auskunftsersuchen an Temu oder Dritte richtet oder Überwachungsmaßnahmen oder Befragungen durchführt.
Die Einleitung eines förmlichen Verfahrens ermächtigt die Kommission, weitere Durchsetzungsmaßnahmen zu ergreifen, einschließlich des Erlasses eines Beschlusses über die Nichteinhaltung. Die Kommission ist ferner befugt, die von Temu eingegangenen Verpflichtungen zu akzeptieren, um Abhilfe in den von dem Verfahren betroffenen Bereichen zu schaffen.
Das Gesetz über digitale Dienste setzt keine rechtliche Frist für die Beendigung des förmlichen Verfahrens fest. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, darunter der Komplexität des Falls, dem Umfang der Zusammenarbeit des betreffenden Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.
Darüber hinaus greift die Einleitung eines förmlichen Verfahrens weder seinem Ausgang noch anderen Verfahren vor, die die Kommission nach anderen Artikeln des Gesetzes über digitale Dienste einleiten kann.
Ebenso wenig schließt sie künftige Durchsetzungsmaßnahmen aus, die von den nationalen Verbraucherschutzbehörden des Netzwerks für die Zusammenarbeit im Verbraucherschutz (CPC) in Bezug auf die Einhaltung der Verpflichtungen von Temu nach dem Verbraucherrecht der Union ergriffen werden können. Die Kommission wird ihre Bemühungen um die Zusammenarbeit mit den nationalen Behörden bei der Durchsetzung des Gesetzes über digitale Dienste fortsetzen, unter anderem durch die spezielle Arbeitsgruppe „Verbraucher und Online-Marktplätze“ des Europäischen Gremiums der Koordinatoren für digitale Dienste.
Auch die Eröffnung eines förmlichen Verfahrens steht Handlungen und Entscheidungen der Marktüberwachungsbehörden auf der Grundlage der Richtlinie über die allgemeine Produktsicherheit (Verordnung über die allgemeine Produktsicherheit vom 13.12.2024) nicht entgegen.
Hintergrund
Temu wurde am 31. Mai 2024 im Rahmen des EU-Gesetzes über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem sie erklärt hatte, monatlich mehr als 45 Millionen aktive Nutzer in der EU zu haben. Vier Monate nach seiner Benennung musste Temu die strengsten Verpflichtungen für VLOP erfüllen, die im Gesetz über digitale Dienste festgelegt sind. Dazu gehört die Verpflichtung, alle systemischen Risiken, die sich aus seinem Dienst ergeben, ordnungsgemäß zu bewerten und zu mindern. Temu meldete zuletzt im September 2024 92 Millionen monatliche Nutzer.
Mit Inkrafttreten der Verordnung (EU) 2024/1689 zur Regulierung von Künstlicher Intelligenz (KI-Verordnung) hat die Europäische Union einen neuen regulatorischen Rahmen geschaffen, um die Nutzung von KI-Systemen zu steuern und Risiken für Sicherheit, Gesundheit und Grundrechte zu minimieren. Die Verordnung basiert auf einem risikobasierten Ansatz und enthält klare Vorgaben für den Einsatz von KI-Systemen. Im Mittelpunkt steht dabei die Unterscheidung zwischen verschiedenen Risikokategorien, wobei die gefährlichsten KI-Praktiken vollständig verboten sind.
Artikel 5 der KI-Verordnung benennt abschließend bestimmte verbotene KI-Praktiken. Diese Praktiken gelten als so schwerwiegend, dass ihr Einsatz unabhängig vom Verwendungszweck oder der jeweiligen Branche vollständig untersagt ist. Unternehmen, die solche KI-Systeme entwickeln oder einsetzen, müssen mit erheblichen Sanktionen rechnen. In diesem Beitrag wird detailliert erläutert, wann verbotene KI-Praktiken vorliegen, welche Vorschriften dies regeln und welche rechtlichen Konsequenzen dies für Unternehmen hat.
I. Wann liegen verbotene KI-Praktiken vor? Die KI-Verordnung unterscheidet in Artikel 5 zwischen verschiedenen KI-Praktiken, die per se verboten sind, da sie gegen fundamentale Rechte und Werte verstoßen oder erhebliche Risiken für die öffentliche Sicherheit darstellen. Diese Praktiken sind abschließend aufgelistet und umfassen folgende Hauptkategorien:
1. Manipulative KI-Systeme Artikel 5 Abs. 1 lit. a verbietet den Einsatz von KI-Systemen, die durch unterbewusste Techniken das Verhalten von Personen in einer Weise manipulieren, dass dies zu physischen oder psychischen Schäden führt. Ziel dieser Vorschrift ist der Schutz der Autonomie und des freien Willens von Individuen. Manipulative Systeme, die gezielt unterbewusste Techniken nutzen, um Menschen zu bestimmten Handlungen zu verleiten, stellen ein erhebliches Risiko dar.
Beispielsweise könnte ein KI-System, das unbewusst Kaufentscheidungen beeinflusst oder Menschen zu gesundheitsschädlichem Verhalten verleitet, unter diese Kategorie fallen. Ein solches System würde das Risiko mit sich bringen, dass die betroffene Person gegen ihren Willen zu Handlungen gedrängt wird, die ihr schaden.
2. Ausnutzung von Schwächen bestimmter Personengruppen Nach Artikel 5 Abs. 1 lit. b ist der Einsatz von KI-Systemen verboten, die die besonderen Schwächen bestimmter Personengruppen ausnutzen, wie z. B. Kinder oder Menschen mit Behinderungen. Diese Vorschrift zielt auf den Schutz besonders schutzbedürftiger Gruppen ab, die durch KI-Systeme besonders leicht zu manipulieren oder zu beeinflussen sind.
Ein Beispiel wäre eine KI, die Kinder gezielt dazu verleitet, exzessiv Videospiele zu spielen oder Käufe zu tätigen, indem sie deren mangelnde kognitive Reife oder emotionale Schwächen ausnutzt.
3. KI-Systeme zur sozialen Bewertung (Social Scoring) Artikel 5 Abs. 1 lit. c verbietet den Einsatz von KI-Systemen durch Behörden zur Bewertung des Verhaltens von Bürgern über einen längeren Zeitraum hinweg und zur Vergabe von sozialen Vorteilen oder Nachteilen (sogenanntes „Social Scoring“). Ein solches System könnte dazu führen, dass Personen aufgrund ihres Verhaltens oder anderer Kriterien in diskriminierender Weise behandelt werden.
Ein bekanntes Beispiel hierfür ist das Social Credit System, das in einigen Staaten zur Bewertung des Verhaltens von Bürgern eingesetzt wird. Dieses Vorgehen birgt das Risiko, dass soziale, wirtschaftliche oder rechtliche Entscheidungen auf Grundlage ungenauer oder unverhältnismäßiger Bewertungen getroffen werden.
4. Biometrische Fernidentifizierung im öffentlichen Raum Artikel 5 Abs. 1 lit. d der KI-Verordnung untersagt den Einsatz von KI-Systemen zur biometrischen Fernidentifizierung in Echtzeit in öffentlichen Räumen, es sei denn, sie sind ausdrücklich durch das Recht der Union oder der Mitgliedstaaten erlaubt. Derartige Systeme, wie beispielsweise Gesichtserkennungstechnologien, können eine massive Überwachung ermöglichen und das Recht auf Privatsphäre erheblich einschränken.
Ausnahmen bestehen nur in streng geregelten Fällen, etwa bei der Verhinderung schwerer Straftaten oder zur Terrorismusbekämpfung, und müssen von den zuständigen Behörden genehmigt werden.
II. Rechtliche Konsequenzen für Unternehmen Für Unternehmen, die verbotene KI-Praktiken anwenden, hat die Nichteinhaltung der Vorschriften schwerwiegende Folgen. Die Verordnung sieht umfassende Sanktionen vor, die insbesondere in Artikel 71 geregelt sind.
1. Bußgelder Verstöße gegen Artikel 5 der KI-Verordnung können mit erheblichen Bußgeldern geahndet werden. Artikel 71 Abs. 3 legt fest, dass Unternehmen bei Verstößen gegen die Verbotsvorschriften Geldbußen von bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes des Unternehmens zu zahlen haben, je nachdem, welcher Betrag höher ist. Diese hohen Bußgelder unterstreichen den Stellenwert der Verordnung und die Schwere von Verstößen.
Diese Sanktionen stehen in ihrer Höhe den Bußgeldern der Datenschutz-Grundverordnung (DSGVO) nahe und verdeutlichen die Entschlossenheit der EU, die Einhaltung der Vorschriften durchzusetzen.
2. Betriebseinstellungen und Vertriebsverbote Neben Bußgeldern kann die zuständige Aufsichtsbehörde gemäß Artikel 71 Abs. 4 auch andere Sanktionen verhängen, darunter:
Einstellung des Betriebs eines KI-Systems, das gegen die Verbote verstößt,
Rückruf von Produkten, die verbotene KI-Systeme enthalten,
Verbot des Inverkehrbringens oder der Bereitstellung von solchen Systemen auf dem europäischen Markt.
Diese Maßnahmen können für Unternehmen besonders schwerwiegend sein, da sie direkt den Fortbestand des Geschäftsmodells oder den Einsatz von innovativen Technologien betreffen.
3. Haftung für Schäden Unternehmen, die verbotene KI-Systeme einsetzen, können zudem zivilrechtlich für Schäden haftbar gemacht werden, die durch den Einsatz solcher Systeme verursacht wurden. Dies ergibt sich aus den allgemeinen Haftungsvorschriften im Zivilrecht, aber auch aus der DSGVO, sofern personenbezogene Daten betroffen sind. Geschädigte Personen haben das Recht, auf Schadensersatz zu klagen, insbesondere wenn durch den Einsatz eines verbotenen KI-Systems ihre Grundrechte verletzt wurden.
III. Praktische Herausforderungen für Unternehmen Die Implementierung der Vorschriften der KI-Verordnung erfordert von Unternehmen erhebliche Anstrengungen. Insbesondere die Einhaltung der Verbote nach Artikel 5 stellt Unternehmen vor praktische Herausforderungen:
1. Risikoabschätzung und Compliance Unternehmen müssen sicherstellen, dass ihre KI-Systeme im Einklang mit den Verboten stehen. Hierzu sind umfassende Risikomanagement-Systeme erforderlich, die mögliche Risiken von KI-Anwendungen erfassen und geeignete Maßnahmen zur Vermeidung von Verstößen festlegen. Da KI-Systeme oft komplex und schwer durchschaubar sind, müssen Unternehmen sicherstellen, dass sie die Funktionsweise ihrer Systeme genau kennen und regelmäßig überprüfen.
2. Interne Kontrollen und Prüfmechanismen Ein wichtiger Bestandteil der Compliance-Strategie ist die Implementierung von internen Prüfmechanismen, die sicherstellen, dass verbotene KI-Praktiken nicht unbewusst in die Unternehmensprozesse eingebaut werden. Dies erfordert insbesondere regelmäßige Audits und die Einrichtung von Kontrollinstanzen innerhalb des Unternehmens, etwa durch Ethik- oder Datenschutzbeauftragte, die den Einsatz von KI-Systemen überwachen.
3. Schulung und Sensibilisierung der Mitarbeiter Da KI-Systeme oft tief in den Unternehmensprozessen verankert sind, ist es notwendig, die Mitarbeiter regelmäßig zu schulen und für die rechtlichen Anforderungen zu sensibilisieren. Dies gilt insbesondere für Entwickler und Anwender von KI-Systemen, die für die Einhaltung der Vorschriften verantwortlich sind.
Fazit Artikel 5 KI-Verordnung soll sicherstellen, dass besonders gefährliche und ethisch bedenkliche KI-Praktiken vollständig verboten werden. Für Unternehmen ist die Einhaltung dieser Verbote von entscheidender Bedeutung, da Verstöße nicht nur zu erheblichen Bußgeldern, sondern auch zu Betriebsverboten und anderen schwerwiegenden Konsequenzen führen können.
Unternehmen müssen daher umfassende Compliance-Strategien entwickeln, um sicherzustellen, dass ihre KI-Systeme im Einklang mit der Verordnung stehen. Besonders im Hinblick auf die verbotenen Praktiken erfordert dies ein hohes Maß an Transparenz und interne Prüfmechanismen, um die Risiken, die von der Nutzung von KI ausgehen, wirksam zu kontrollieren. Rechtsprechung und Aufsichtspraxis werden zeigen, wie streng die Vorschriften der KI-Verordnung durchgesetzt werden. Ein Blick in die Vergangenheit zeigt, dass sich immer Gerichte und Aufsichtsbehörden finden, welche einen besonder strengen Maßstab bei der Auslegung rechtliche Vorgaben anglegen.
Die EU-Kommission hat entschieden, dass XNXX eine sehr große Onlineplattformen (VLOP) im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) ist
Die Pressemitteilung der EU-Kommission: Kommission benennt nicht jugendfreie Plattform XNXX als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste
Die Kommission hat XNXX heute offiziell als sehr große Online-Plattform (VLOP) gemäß dem Gesetz über digitale Dienste benannt.
XNXX ist eine Plattform für nicht jugendfreie Inhalte mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Anzahl von Nutzern, die XNXX der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als sehr große Online-Plattform. Nach der heutigen Benennung als sehr große Online-Plattform muss XNXX nun innerhalb von vier Monaten nach seiner Benachrichtigung (d. h. ab Mitte November 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten. Zu den Verpflichtungen gehören die Ergreifung besonderer Maßnahmen zur Stärkung und zum Schutz ihrer Online-Nutzer. So müssen sie den Zugang Minderjähriger zu pornografischen Online-Inhalten verhindern (auch mit Instrumenten zur Altersüberprüfung), Forschern öffentlich zugängliche Daten zur Verfügung stellen und ein Archiv der Werbeanzeigen veröffentlichen.
Darüber hinaus muss XNXX alle systemischen Risiken, die sich aus seinen Diensten ergeben, gründlich bewerten und mindern, z. B. Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte oder negativen Auswirkungen auf das geistige und körperliche Wohlbefinden der Nutzer. Den ersten Risikobewertungsbericht muss die benannte Plattform bis Mitte November 2024 vorlegen.
Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich XNXX, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Dazu gehören z. B. die Bereitstellung benutzerfreundlicher Mechanismen zur Meldung illegaler Inhalte, die eindeutige Kennzeichnung von Werbung in ihren Diensten und die Veröffentlichung jährlicher Transparenzberichte.
Nächste Schritte
Nach der Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch XNXX in Zusammenarbeit mit dem tschechischen Koordinator für digitale Dienste zu überwachen.
Hintergrund
Diese Benennung verdeutlicht, dass die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt.
Die Kommission hatte im Dezember 2023 bereits drei weitere Plattformen für nicht jugendfreie Inhalte benannt, nämlich Pornhub, Stripchat und XVideos. Mit der heutigen Benennung erhöht sich die Zahl der gemäß dem Gesetz über digitale Dienste als solche benannten sehr großen Online-Plattformen und -Suchmaschinen auf insgesamt 25.
Im Rahmen ihrer Aufsichts- und Durchsetzungsaufgaben überwacht die Kommission die Einhaltung des Gesetzes über digitale Dienste durch sehr große Online-Plattformen und kann per Auskunftsverlangen von den Plattformen weitere detaillierte Informationen darüber einholen, wie diese ihren gesetzlichen Verpflichtungen nachkommen. Am 13. Juni 2024 richtete die Kommission solche Auskunftsverlangen an Pornhub, Stripchat und XVideos. Darin forderte sie die Plattformen auf, ausführlichere Informationen über ihre Maßnahmen gegen die Verstärkung illegaler Inhalte und geschlechtsspezifischer Gewalt und über ihre Alterskontrollvorkehrungen zu geben.
Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste teilen sich die Kommission und die Koordinatoren für digitale Dienste, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.
Die EU-Kommission hat entschieden, dass TEMU eine sehr große Online-Plattform im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste ist.
Die Pressemitteilung der EU-Kommission: Kommission benennt Temu als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste
Die Kommission hat Temu heute offiziell als sehr große Online-Plattform (VLOP) im Rahmen des Gesetzes über digitale Dienste (DSA) benannt.
Temu ist ein Online-Marktplatz mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Nutzernummer, die Temu der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als VLOP.
Nach der heutigen Benennung als VLOP muss Temu innerhalb von vier Monaten nach seiner Mitteilung (d. h. bis Ende September 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten, wie etwa die Verpflichtung, alle systemischen Risiken, die sich aus seinen Dienstleistungen ergeben, einschließlich der Listung und des Verkaufs von gefälschten Waren, unsicheren oder illegalen Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen, ordnungsgemäß zu bewerten und zu mindern.
Zu diesen zusätzlichen Verpflichtungen gehören insbesondere:
Sorgfältigere Überwachung illegaler Produkte
-Temu muss die spezifischen systemischen Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte und Produkte sowie aus der Konzeption oder dem Funktionieren seines Dienstes und der damit verbundenen Systeme sorgfältig analysieren. Die Risikobewertungsberichte sind der Kommission vier Monate nach der Mitteilung der förmlichen Benennung und danach ein Jahr vorzulegen.
- Temu muss Risikominderungsmaßnahmen ergreifen, um Risiken zu begegnen, z. B. durch die Aufnahme und den Verkauf von nachgeahmten Waren, unsicheren Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen. Diese Maßnahmen können die Anpassung der Nutzungsbedingungen, die Verbesserung der Gestaltung der Benutzerschnittstellen im Hinblick auf eine bessere Meldung und Aufdeckung verdächtiger Listen, die Verbesserung der Moderationsverfahren zur raschen Entfernung illegaler Gegenstände und die Verfeinerung der Algorithmen umfassen, um die Förderung und den Verkauf verbotener Waren zu verhindern.
- Temu muss seine internen Prozesse, Ressourcen, Tests, Dokumentation und Überwachung aller Tätigkeiten im Zusammenhang mit der Erkennung systemischer Risiken verstärken.
Verstärkte Verbraucherschutzmaßnahmen
- In den jährlichen Risikobewertungsberichten von Temu müssen insbesondere mögliche negative Auswirkungen auf die Gesundheit und Sicherheit der Verbraucher bewertet werden, wobei der Schwerpunkt auf dem körperlichen und geistigen Wohlbefinden minderjähriger Nutzer liegen sollte.
- Temu ist verpflichtet, seine Plattform, einschließlich Benutzerschnittstellen, Empfehlungsalgorithmen und Nutzungsbedingungen, zu strukturieren, um Risiken für die Sicherheit und das Wohlbefinden der Verbraucher zu mindern und zu verhindern. Es müssen Maßnahmen ergriffen werden, um die Verbraucher vor dem Kauf unsicherer oder illegaler Waren zu schützen, wobei ein besonderer Schwerpunkt darauf liegen sollte, den Verkauf und Vertrieb von Produkten, die für Minderjährige schädlich sein könnten, zu verhindern. Dazu gehört auch die Einführung robuster Alterssicherungssysteme, um den Kauf altersbegrenzter Güter zu beschränken.
Mehr Transparenz und Rechenschaftspflicht
- Temu muss sicherstellen, dass seine Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste jedes Jahr extern und unabhängig geprüft werden.
-Temu muss Repository aller Anzeigen veröffentlichen, die auf seiner Schnittstelle angezeigt werden.
- Temu muss Forschern, einschließlich zugelassener Forscher, die von den Koordinatoren für digitale Dienste benannt wurden, Zugang zu öffentlich zugänglichen Daten gewähren.
- Temu muss die Transparenzanforderungen erfüllen, einschließlich der Veröffentlichung von Transparenzberichten über Entscheidungen zur Moderation von Inhalten und des Risikomanagements alle sechs Monate zusätzlich zu den Berichten über die Systemrisiken und den Prüfungsergebnissen einmal jährlich.
- Temu muss eine Compliance-Funktion benennen und jedes Jahr einer externen unabhängigen Prüfung unterzogen werden.
Allgemeine Anwendbarkeit des Gesetzes über digitale Dienste auf Online-Plattformen und -Marktplätze
Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich Temu, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Diese allgemeinen Bestimmungen umfassen die Verpflichtung von Online-Marktplätzen,
- Gewährleistung der Rückverfolgbarkeit von Händlern auf ihren Plattformen;
- Ihre Schnittstelle so zu gestalten, dass den Unternehmern die Einhaltung ihrer rechtlichen Verpflichtungen nach dem EU-Recht erleichtert wird;
- Die Verbraucher über den Kauf eines illegalen Produkts informieren, sobald sie von der Illegalität des Produkts Kenntnis erlangen.
Seit dem 17. Februar 2024 sind alle Online-Plattformen, einschließlich Marktplätze, nach dem Gesetz über digitale Dienste außerdem verpflichtet,
- Bereitstellung benutzerfreundlicher Mechanismen, die es Nutzern oder Stellen ermöglichen, illegale Inhalte zu melden;
- Der Behandlung von Meldungen, die von sogenannten „vertrauenswürdigen Hinweisgebern“ übermittelt werden, Vorrang einzuräumen;
- Den Nutzern Begründungen zur Verfügung zu stellen, wenn ihre Inhalte eingeschränkt oder entfernt werden;
- Bereitstellung eines internen Beschwerdemanagementsystems für Nutzer, um Entscheidungen über die Moderation von Inhalten anzufechten;
- Ihre Systeme neu gestalten, um ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu gewährleisten;
- Sicherstellen, dass ihre Schnittstellen nicht so gestaltet sind, dass die Nutzer getäuscht oder manipuliert werden;
- Werbung auf ihren Schnittstellen deutlich kennzeichnen;
- Die Anzeige gezielter Werbung auf der Grundlage von Profilen sensibler Daten (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung) oder die sich an Minderjährige richtet, einzustellen;
- Klare Bedingungen haben und bei ihrer Anwendung sorgfältig, objektiv und verhältnismäßig handeln;
- Sie veröffentlichen einmal jährlich Transparenzberichte über ihre Verfahren zur Moderation von Inhalten.
Nächste Schritte
Nach ihrer Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch Temu in Zusammenarbeit mit dem irischen Koordinator für digitale Dienste zu überwachen.
Die Kommissionsdienststellen werden die Anwendung der Vorschriften und Verpflichtungen des Gesetzes über digitale Dienste durch die Plattform sorgfältig überwachen, insbesondere in Bezug auf Maßnahmen zur Gewährleistung des Verbraucherschutzes und zur Bekämpfung der Verbreitung illegaler Produkte. Die Kommissionsdienststellen sind bereit, eng mit Temu zusammenzuarbeiten, um sicherzustellen, dass diese angemessen angegangen werden.
Hintergrund
Diese Bezeichnung veranschaulicht, wie die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt. Die Kommission hat nun 24 sehr große Online-Plattformen und Suchmaschinen im Rahmen des Gesetzes über digitale Dienste benannt.
Am 25. April 2023 benannte die Kommission die ersten 19 sehr großen Betriebsplattformen (VLOP) und sehr große Online-Suchmaschinen (VLOSE). Ab Ende August mussten diese sehr großen Online-Plattformen und sehr großen Online-Plattformen die zusätzlichen Verpflichtungen gemäß Abschnitt 5 des Gesetzes über digitale Dienste erfüllen. Am 20. Dezember 2023 wurden drei weitere sehr große Online -Plattformen benannt. Am 26. April 2024 benannte die Kommission Shein als VLOP, für das die zusätzliche Verpflichtung im August 2024 verbindlich wird.
Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste wird von der Kommission und den Koordinatoren für digitale Dienste geteilt, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.
Die EU-Kommission hat ein förmliches Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen möglicherweise unzureichendem Schutz Minderjähriger auf Instagram und Facebook eingeleitet.
Die Pressemitteilung der EU-Kommission: Kommission leitet förmliches Verfahren gegen Meta nach dem Gesetz über digitale Dienste zum Schutz Minderjähriger auf Facebook und Instagram ein
Die Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta, der Anbieter von Facebook und Instagram, in Bereichen im Zusammenhang mit dem Schutz Minderjähriger möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.
Die Kommission ist besorgt, dass die Systeme sowohl von Facebook als auch von Instagram, einschließlich ihrer Algorithmen, Verhaltensabhängigkeiten bei Kindern stimulieren und so genannte „Rabbit-Out-Effekte“ erzeugen können. Darüber hinaus ist die Kommission besorgt über die Alterssicherungs- und Überprüfungsmethoden, die Meta eingeführt hat.
Die heutige Einleitung des Verfahrens stützt sich auf eine vorläufige Analyse des von Meta im September 2023 übermittelten Risikobewertungsberichts, auf die Antworten von Meta auf die förmlichen Auskunftsersuchen der Kommission (zum Schutz Minderjähriger und zur Methodik der Risikobewertung), auf öffentlich zugängliche Berichte sowie auf die eigene Analyse der Kommission.
Das vorliegende Verfahren betrifft folgende Bereiche:
- Die Einhaltung der Verpflichtungen von Meta im Rahmen des Gesetzes über digitale Dienste zur Bewertung und Minderung von Risiken, die durch die Gestaltung der Online-Schnittstellen von Facebook und Instagram verursacht werden, was die Schwächen und Unerfahrenheit Minderjähriger ausnutzen und zu Suchtverhalten führen und/oder den sogenannten „Rabbit-Locheffekt“ verstärken kann. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden von Kindern sowie für die Achtung ihrer Rechte entgegenzuwirken.
- Die Einhaltung der Anforderungen des Gesetzes über digitale Dienste durch Meta in Bezug auf die Risikominderungsmaßnahmen zur Verhinderung des Zugangs Minderjähriger zu unangemessenen Inhalten, insbesondere zu den von Meta verwendeten Instrumenten zur Altersüberprüfung, die möglicherweise nicht angemessen, verhältnismäßig und wirksam sind.
- Die Einhaltung der Verpflichtungen von Meta im Gesetz über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere im Hinblick auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Konzeption und Funktionsweise ihrer Empfehlungssysteme.
Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 28, 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Einleitung eines förmlichen Verfahrens greift dem Ergebnis des Verfahrens nicht vor und lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die eine Zuwiderhandlung gegen das Gesetz über digitale Dienste darstellen könnten.
Nächste Schritte
Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen und weiterhin Beweise sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie den Erlass einstweiliger Maßnahmen und Beschlüsse wegen Nichteinhaltung der Vorschriften zu ergreifen. Die Kommission ist ferner befugt, Verpflichtungszusagen von Meta anzunehmen, mit denen die im Verfahren aufgeworfenen Probleme behoben werden sollen.
Die Einleitung dieses förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste im Zusammenhang mit einem mutmaßlichen Verstoß gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.
Hintergrund
Facebook und Instagram wurden am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattformen (VLOP) eingestuft, da beide über 45 Millionen monatlich aktive Nutzer in der EU haben. Als sehr große Online-Plattformen mussten Facebook und Instagram vier Monate nach ihrer Benennung, d. h. Ende August 2023, damit beginnen, eine Reihe von Verpflichtungen gemäß dem Gesetz über digitale Dienste zu erfüllen. Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.
Am 30. April 2024 hatte die Kommission bereits ein förmliches Verfahren gegen Meta eingeleitet, und zwar sowohl in Bezug auf Facebook als auch in Bezug auf Instagram in Bezug auf irreführende Werbung, politische Inhalte, Melde- und Abhilfemechanismen, den Datenzugang für Forscher sowie die Tatsache, dass im Vorfeld der Wahlen zum Europäischen Parlament kein wirksames Instrument für den Bürgerdiskurs Dritter in Echtzeit zur Verfügung steht.
Vizepräsidenten des EuGH
Beschluss vom 27.03.2024 C-639/23 P(R)
EU-Kommission / Amazon Services Europe
Der EuGH-Vizepräsident hat den Eilantrag von Amazon gegen die Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt.
Die Pressemitteilung des EuGH: Online-Werbung: Der Antrag von Amazon auf Aussetzung ihrer Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, wird zurückgewiesen
Amazon Services Europe gehört zum Amazon-Konzern. Ihre geschäftlichen Aktivitäten umfassen den OnlineEinzelhandel und weitere Dienstleistungen wie Cloud Computing und Online-Streaming. Sie erbringt OnlineMarktplatzdienste an Drittverkäufer und ermöglicht ihnen, Waren im Amazon Store zum Kauf anzubieten.
Mit Beschluss vom 23. April 20231 , der gemäß der Verordnung über einen Binnenmarkt für digitale Dienste erlassen wurde, benannte die Kommission Amazon Store als sehr große Online-Plattform. Dies bedeutet u. a., dass Amazon Store ein Werbearchiv mit detaillierten Informationen über ihre Online-Werbung öffentlich zugänglich machen muss. Amazon beantragte beim Gericht der Europäischen Union die Nichtigerklärung dieses Beschlusses. Sie stellte außerdem einen Antrag auf vorläufigen Rechtsschutz. Mit Beschluss vom 27. September 20234 ordnete der Präsident des Gerichts die Aussetzung des Beschlusses der Kommission an, soweit Amazon Store damit verpflichtet wird, das Werbearchiv öffentlich zugänglich zu machen. Die Kommission hat gegen den Beschluss des Präsidenten des Gerichts beim Gerichtshof ein Rechtsmittel eingelegt.
Mit seinem heutigen Beschluss hebt der Vizepräsident des Gerichtshofs den Teil des Beschlusses des Präsidenten des Gerichts auf, mit dem der Beschluss der Kommission in Bezug auf das Werbearchiv ausgesetzt wird. Er stellt fest, dass der Kommission unter Verstoß gegen den Grundsatz eines kontradiktorischen Verfahrens die Möglichkeit vorenthalten wurde, zu den Argumenten, die von Amazon im Verfahren vor dem Gericht vorgetragen wurden, Stellung zu nehmen. Da die Kommission vor dem Gerichtshof die Argumente vorgetragen hat, mit denen sie dem Vorbringen von Amazon vor dem Gericht entgegentreten wollte, entscheidet der Vizepräsident des Gerichtshofs den Rechtsstreit endgültig und weist den Antrag auf vorläufigen Rechtsschutz zurück.
Der Vizepräsident des Gerichtshofs ist der Ansicht, dass das Vorbringen von Amazon, die vom Unionsgesetzgeber eingeführte Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, schränke ihre Grundrechte auf Achtung des Privatlebens und auf unternehmerische Freiheit rechtswidrig ein, dem ersten Anschein nach nicht als unerheblich und außerdem völlig haltlos angesehen werden kann.
Zudem würde Amazon, wenn keine Aussetzung erfolgt, vor einem eventuell ergehenden Urteil, mit dem der Beschluss der Kommission für nichtig erklärt wird, wahrscheinlich einen schwerwiegenden und nicht wiedergutzumachenden Schaden erleiden.
Diese Feststellungen sind jedoch für sich allein genommen nicht entscheidend. Es ist nämlich zu prüfen, ob die Abwägung sämtlicher beteiligter Interessen die Versagung der Aussetzung rechtfertigen kann. Hierzu stellt der Vizepräsident des Gerichtshofs fest, dass Amazon in dem Fall, dass die Aussetzung nicht gewährt wird, weiterhin ein Interesse an der Nichtigerklärung des Beschlusses der Kommission hätte. Außerdem ist nicht dargetan, dass in diesem Fall die Existenz oder die langfristige Entwicklung von Amazon auf dem Spiel stünden. Darüber hinaus würde die Aussetzung bedeuten, das vollständige Erreichen der Ziele der Verordnung über einen Binnenmarkt für digitale Dienste möglicherweise über mehrere Jahre hinauszuschieben und damit möglicherweise ein OnlineUmfeld bestehen oder sich entwickeln zu lassen, das eine Bedrohung für die Grundrechte darstellt; der Unionsgesetzgeber war aber der Auffassung, dass die sehr großen Online-Plattformen eine wichtige Rolle in diesem Umfeld spielen. Die vom Unionsgesetzgeber vertretenen Interessen gehen im vorliegenden Fall den materiellen Interessen von Amazon vor, weshalb die Abwägung zugunsten der Zurückweisung des Aussetzungsantrags ausfällt.
Die EU-Kommission hat ein förmliches Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern eingeleitet.
Die Pressemitteilung der EU-Kommission: Kommission leitet förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste ein
Die Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob AliExpress in Bereichen im Zusammenhang mit dem Management und der Minderung von Risiken, der Moderation von Inhalten und dem internen Beschwerdemanagementsystem, der Transparenz von Werbe- und Empfehlungssystemen, der Rückverfolgbarkeit von Händlern und dem Datenzugang für Forscher möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.
Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich der Analyse des von AliExpress im August 2023 übermittelten Risikobewertungsberichts, der in seinem Transparenzbericht veröffentlichten Informationen und ihrer Antworten auf die förmlichen Auskunftsersuchen der Kommission (vom 6. November 2023 und 18. Januar 2024), hat die Kommission beschlossen, ein förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste einzuleiten.
Die Beratungen werden sich auf folgende Bereiche konzentrieren:
- Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste in Bezug auf die Bewertung und Minderung der systemischen Risiken der Verbreitung illegaler Inhalte sowie tatsächliche oder vorhersehbare negative Auswirkungen auf den Verbraucherschutz, insbesondere im Zusammenhang mit
- Die mangelnde Durchsetzung von AliExpress-Dienstleistungsbedingungen, die bestimmte Produkte verbieten, die eine
Gefahr für die Gesundheit der Verbraucher darstellen (z. B. gefälschte Arzneimittel und Lebensmittel sowie
Nahrungsergänzungsmittel) und speziell für Minderjährige (Zugang zu pornografischem Material), die die Verbraucher noch
auf der Plattform finden können;
- Das Fehlen wirksamer Maßnahmen zur Verhinderung der Verbreitung illegaler Inhalte;
- Das Fehlen wirksamer Maßnahmen, um vorsätzliche Manipulationen auf der Online-Plattform durch sogenannte „versteckte
Links“ zu verhindern;
- Das Fehlen wirksamer Maßnahmen zur Vermeidung von Risiken aufgrund von Merkmalen wie Influencern, die illegale oder
schädliche Produkte im Rahmen des „verbundenen Programms“ von AliExpress fördern.
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, allen Nutzern, einschließlich derjenigen, die nicht registriert sind, zu ermöglichen, illegale Inhalte zu melden und eine Bestätigung des Eingangs der Meldung zu erhalten;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein wirksames internes Beschwerdemanagementsystem bereitzustellen;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, die Zuverlässigkeit und Vollständigkeit der von Wirtschaftsbeteiligten, die AliExpress verwenden, angeforderten Informationen zu sammeln und zu bewerten, auch in Bezug auf Händler im Rahmen des „AliExpress Affiliate Program“, im Einklang mit der Rückverfolgbarkeit der Bestimmungen der Händler;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, für Transparenz in Bezug auf die wichtigsten Parameter zu sorgen, die in den Empfehlungssystemen von AliExpress verwendet werden, und mindestens eine Option eines Empfehlungssystems anzubieten, das nicht auf Profiling beruht;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf AliExpress bereitzustellen;
- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, Forschern gemäß Artikel 40 des Gesetzes über digitale Dienste Zugang zu öffentlich zugänglichen Daten von AliExpress zu gewähren.
Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 16, 20, 26, 27, 30, 34, 35, 38, 39 und 40 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.
Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen zu ergreifen, z. B. einstweilige Maßnahmen zur Beendigung oder Behebung eines Verstoßes gegen Artikel 28 Absatz 1 und Beschlüsse wegen Nichteinhaltung. Die Kommission ist ferner befugt, von AliExpress eingegangene Verpflichtungszusagen anzunehmen, um Abhilfe in dem von dem Verfahren betroffenen Sachverhalt zu schaffen.
Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.
Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen die Artikel 16, 20, 26, 27 und 30 zu überwachen und durchzusetzen.
Die Einleitung eines förmlichen Verfahrens greift weder dem Ergebnis noch anderen Verfahren vor, die die Kommission nach anderen Artikeln des Gesetzes über digitale Dienste einleiten kann. Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die andere Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergreifen.
Hintergrund
AliExpress wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 104,3 Millionen monatlich aktive Nutzer in der EU gibt. Als VLOP musste AliExpress vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von Verpflichtungen aus dem Gesetz über digitale Dienste beginnen.
Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.
Die EU-Kommission hat entschieden, dass Pornhub, Stripchat und XVideos sehr große Onlineplattformen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) sind.
Die Pressemitteilung des EU-Kommission: Today, the Commission adopted a second set of designation decisions under the Digital Services Act, designating 3 Very Large Online Platforms (VLOPs). These are:
Pornhub
Stripchat
XVideos
The designation is the result of Commission investigations concluding that the three services fulfil the threshold of 45 million average monthly users in the EU.
Today's designations follow a first set of designation decisions of 19 Very Large Online Platforms and Search Engines on 25 April 2023, of which the Commission published the non-confidential versions today.
General date of applicability of the DSA
With the exception of small and microenterprises, all online platforms and search engines will need to comply with the general DSA obligations by 17 February 2024. Among other provisions, they will need to:
Provide user-friendly mechanisms to allow users or entities to notify illegal content;
Prioritise the treatment of notices submitted by so-called “trusted flaggers”;
Provide statements of reasons to users when their content is restricted or removed;
Provide an internal complaint-handling system for users to appeal content moderation decisions;
Promptly inform law enforcement authorities if they become aware of any information giving rise to a suspicion that a criminal offence involving a threat to the life or safety of a person has taken place, is taking place or is likely to take place, including in the case of child sexual abuse;
Redesign their systems to ensure a high level of privacy, security, and safety of minors;
Ensure that their interfaces are not designed in a way that deceives or manipulates the users;
Clearly label advertisement on their interfaces;
Stop presenting targeted advertisement based on profiling of sensitive data (such as ethnic origin, political opinions or sexual orientation), or targeted at minors;
Have clear terms and conditions and act in a diligent, objective and proportionate manner when applying them;
Publish once a year transparency reports on their content moderation processes.
More stringent rules for designated VLOPs
In addition to the general provisions in the DSA, within four months of their designation as VLOPs, Pornhub, XVideos and Stripchat will also have to adopt specific measures to empower and protect users online, including minors, and duly assess and mitigate any systemic risks stemming from their services. These additional, specific obligations include:
More diligent content moderation:
VLOPs need to analyse their specific systemic risks with regard to the dissemination of illegal content and of content threatening fundamental rights. Risk assessments reports will have to be provided to the Commission 4 months after the notification of the formal designation and made public at the latest a year later;
VLOPs must put in place mitigation measures to address risks linked to the dissemination of illegal content online, such as child sexual abuse material, and content affecting fundamental rights, such as the right to human dignity and private life in case of non-consensual sharing of intimate material online or deepfake pornography. These measures can include adapting their terms and conditions, interfaces, moderation processes, or algorithms, among others;
VLOPs must reinforce their internal processes, resources, testing, documentation, and supervision of any of their activities linked to the detection of systemic risks.
Strong protection of minors:
VLOPs must design their services, including their interfaces, recommender systems, and terms and conditions, to address and prevent risks to the well-being of children. Mitigating measures to protect the rights of the child, and prevent minors from accessing pornographic content online, including with age verification tools;
Risk assessment reports will have in particular to detail any negative effect on the protection of the mental and physical health of minors.
More transparency and accountability:
VLOPs need to ensure that their risk assessments and their compliance with all the DSA obligations are externally and independently audited;
VLOPs need to publish repositories of all the ads served on their interface;
VLOPs will have to give access to publicly available data to researchers, including to vetted researchers designated by Digital Services Coordinators;
VLOPs need to comply with additional transparency requirements, including the publication of transparency reports on content moderation decisions and risk management every six months, in addition to reports on their systemic risks and audit results once a year;
VLOPs need to appoint a compliance function and be subject to an external independent audit every year.
Next Steps
Following their designation as VLOPs, the Commission will be responsible for supervising Pornhub, Stripchat and XVideos, in cooperation with the Digital Services Coordinators of the Member States of establishment.
The Commission services will carefully monitor the compliance with the DSA obligations by these platforms, especially concerning the measures to protect minors from harmful content and to address the dissemination of illegal content. The Commission services are ready to closely engage with the newly designated platforms to ensure these are properly addressed.
Background
On 25 April 2023, the Commission designated the first 19 Very Large Online Platforms and Search Engines. Starting from the end of August, these VLOPs and VLOSEs must comply with the additional obligations under the DSA. By 17 February 2024, all platforms, with the exception of small and microenterprises, will have to comply with the general obligations introduced by the DSA.
The supervision and enforcement of the DSA will be shared between the Commission and Digital Services Coordinators, which will be designated by Member States by 17 February 2024.
EuG-Präsident
Anordnung vom 27.09.2023 T‑367/23 R
Amazon Services Europe Sàrl ./. EU-Kommission
Der EuG-Präsident hat angeordnet, dass die Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt wird. Über die Rechtsmäßigkeit der Einordnung muss der EuG noch entscheiden.
Tenor der Entscheidung:
1. Operation of the decision of the European Commission of 25 April 2023, with reference C(2023) 2746 final, designating Amazon Store as a very large online platform in accordance with Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act), is suspended in so far as, by virtue of that decision, Amazon Store will be required to make an advertisement repository publicly available, in accordance with Article 39 of that regulation, without prejudice to the requirement for the applicant to compile the advertisement repository.
2. The application for interim measures is dismissed as to the remainder.
Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.
Die Pressemitteilung der EU-Kommission vom 25.04.2023:
Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:
Sehr große Online-Plattformen:
Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:
Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.
Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:
Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.
Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:
Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.
Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.
Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:
Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.
Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.
Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.
Ein höheres Maß an Transparenz und Rechenschaftspflicht:
Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.
Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.
Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.
Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.
Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.
Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.
Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.
Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.
Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.
Die Irische Datenschutzbehörde hat ein Bußgeld in Höhe von 345 Millionen EURO gegen TikTok wegen diverser Verstöße gegen die DSGVO verhängt.
Die Pressemitteilung der Irish Data Protection Commission: Irish Data Protection Commission announces €345 million fine of TikTok
The Data Protection Commission (DPC) adopted its final decision regarding its inquiry into TikTok Technology Limited (TTL) on 1 September 2023.
This own-volition inquiry sought to examine the extent to which, during the period between 31 July 2020 and 31 December 2020 (the Relevant Period), TTL complied with its obligations under the GDPR in relation to its processing of personal data relating to child users of the TikTok platform in the context of:
Certain TikTok platform settings, including public-by-default settings as well as the settings associated with the ‘Family Pairing’ feature; and
Age verification as part of the registration process.
As part of the inquiry, the DPC also examined certain of TTL’s transparency obligations, including the extent of information provided to child users in relation to default settings.
At the conclusion of its investigation, the DPC submitted a draft decision to all Supervisory Authorities Concerned (CSAs), for the purpose of Article 60(3) GDPR, on 13 September 2022. The DPC’s draft decision proposed findings of infringement of Articles 5(1)(c), 5(1)(f), 24(1), 25(1), 25(2), 12(1) and 13(1)(e) GDPR, in relation to the above processing. While there was broad consensus on the DPC’s proposed findings, objections to the draft decision were raised by the Supervisory Authorities (each an SA, collectively SAs) of Italy and Berlin (acting on behalf of itself and the Baden-Württemberg SA).
The objection raised by the Berlin SA sought the inclusion of an additional finding of infringement of the Article 5(1)(a) GDPR principle of fairness as regards ‘dark patterns’ while the objection raised by the Italian SA sought to reverse the DPC’s proposed finding of compliance with Article 25 GDPR, as regards TTL’s approach to age verification during the Relevant Period. The DPC was unable to reach consensus with the CSAs on the subject-matter of the objections and, in the circumstances, decided to refer the objections to the EDPB for determination pursuant to the Article 65 GDPR dispute resolution mechanism.
The European Data Protection Board adopted its binding decision on the subject matter of the objections on 2 August 2023 with a direction that the DPC must amend its draft decision to include a new finding of infringement of the Article 5(1)(a) GDPR principle of fairness, further to the objection raised by the Berlin SA, and to extend the scope of the existing order to bring processing into compliance, to include reference to the remedial work required to address this new finding of infringement.
The DPC’s decision, which was adopted on 1 September 2023, records findings of infringement of Articles 5(1)(c), 5(1)(f), 24(1), 25(1), 25(2), 12(1), 13(1)(e) and 5(1)(a) GDPR. The decision further exercises the following corrective powers:
A reprimand;
An order requiring TTL to bring its processing into compliance by taking the action specified within a period of three months from the date on which the DPC’s decision is notified to TTL; and
Administrative fines totalling €345 million.
For more information, the EDPB has published the Article 65 decision and the final decision on its website.
Die EU-Kommission hat bei der Überprüfung ("Sweep") von Online-Shops bei 148 von 399 untersuchten Online-Shops manipulative Praktiken / Dark Patterns festgestellt.
Die Pressemitteilung der EU-Kommission: Heute haben die Europäische Kommission und die nationalen Verbraucherschutzbehörden von 23 Mitgliedstaaten sowie Norwegen und Island (Netzwerk für die Zusammenarbeit im Verbraucherschutz, kurz CPC-Netz) die Ergebnisse einer Überprüfung („Sweep“) von Einzelhandelswebsites veröffentlicht. Die Kontrolle erstreckte sich auf 399 Online-Shops von Einzelhändlern, die Waren von Textilien bis Elektrogeräten verkaufen. Schwerpunkt der Kontrolle waren drei bestimmte Arten manipulativer Praktiken, sogenannte Dark Patterns, die Verbraucherinnen und Verbraucher häufig dazu veranlassen, Entscheidungen zu treffen, die möglicherweise nicht in ihrem Interesse liegen. Dazu gehören falsche Countdown-Zähler, Websites, die so angelegt sind, dass die Verbraucherinnen und Verbraucher zu Käufen, Abonnements oder anderen Entscheidungen gedrängt werden, und verborgene Informationen. Die Untersuchung ergab, dass 148 Websites mindestens eines dieser drei Dark Patterns enthielten.
EU-Justizkommissar Didier Reynders erklärte: „Die Kontrolle hat ergeben, dass sich fast 40 % der Online-Shopping-Sites manipulativer Praktiken bedienen, um Schwächen der Verbraucherinnen und Verbraucher auszunutzen oder sie zu täuschen. Dieses Verhalten ist eindeutig unrecht und verstößt gegen die Verbraucherschutzregeln. Bereits heute gibt es verbindliche Instrumente, um dagegen vorzugehen, und ich fordere die nationalen Behörden auf, ihre Möglichkeiten der Strafverfolgung auszuschöpfen, um entsprechende Maßnahmen zu ergreifen und diese Praktiken zu bekämpfen. Parallel dazu überprüft die Kommission alle Verbraucherschutzvorschriften, um sicherzustellen, dass diese an das digitale Zeitalter angepasst sind. Dabei prüft sie auch, ob Dark Patterns ausreichend berücksichtigt sind.“
42 Websites verwendeten falsche Countdown-Zähler mit Fristen für den Kauf bestimmter Produkte.
54 Websites drängten die Verbraucher zu bestimmten Entscheidungen – von Abonnements bis hin zu teureren Produkten oder Lieferoptionen – entweder durch ihre visuelle Gestaltung oder sprachliche Mittel.
Bei 70 Websites wurde festgestellt, dass sie wichtige Informationen verbergen oder so darstellen, dass sie für die Verbraucher schlechter erkennbar sind. Dazu gehörten beispielsweise Angaben zu Lieferkosten, zur Zusammensetzung der Produkte oder zu einer preisgünstigeren Alternative. 23 Websites verbargen Informationen mit dem Ziel, Verbraucher zum Abschluss eines Abonnements zu bewegen.
Der Sweep umfasste auch die Anwendungen (Apps) von 102 der geprüften Websites, von denen 27 ebenfalls mindestens eine der drei Arten von Dark Patterns aufwiesen.
Die nächsten Schritte
Die nationalen Behörden werden sich nun mit den betroffenen Händlern in Verbindung setzen, damit diese die Mängel auf ihren Websites beheben, und erforderlichenfalls gemäß ihren nationalen Verfahren weitere Maßnahmen ergreifen.
Ergänzend dazu wird sich die Kommission zusätzlich zu diesem Sweep und im Rahmen ihrer umfassenderen Bemühungen zum Vorgehen gegen Dark Patterns auch an jene Online-Händler wenden, die 2022 in einer Studie zu unlauteren Geschäftspraktiken im digitalen Umfeld ermittelt wurden, und sie auffordern, die hier festgestellten Mängel zu beheben.
Darüber hinaus sammelt die Kommission Rückmeldungen zu folgenden drei Richtlinien mit Bezug zum Verbraucherschutz, um festzustellen, ob diese für ein hohes Schutzniveau im digitalen Umfeld sorgen: Richtlinie über unlautere Geschäftspraktiken, Verbraucherrechte-Richtlinie und Richtlinie über missbräuchliche Vertragsklauseln. Eine öffentliche Konsultation läuft bis zum 20. Februar 2023.
Hintergrund
Im Netz für die Zusammenarbeit im Verbraucherschutz (CPC-Netz) sind Behörden zusammengeschlossen, die für die Durchsetzung des EU-Verbraucherrechts zuständig sind. Damit die Behörden grenzüberschreitend operieren können, werden ihre Maßnahmen auf EU-Ebene koordiniert.
Die nationalen Behörden sind für die Durchsetzung der EU-Verbraucherschutzvorschriften zuständig. Dank der aktualisierten Verordnung über die Zusammenarbeit im Verbraucherschutz verfügen sie nun über mehr Befugnisse, um Unregelmäßigkeiten aufzudecken und schnell gegen unseriöse Händler vorzugehen.
Mit dem neuen Gesetz über digitale Dienste werden Dark Patterns auf Online-Plattformen verboten. Es wird Vorschriften wie die Richtlinie über unlautere Geschäftspraktiken oder die Datenschutz-Grundverordnung ergänzen und sicherstellen, dass keine Regelungslücke verbleibt, die es Plattformen erlaubt, Nutzerinnen und Nutzer zu manipulieren.
Darüber hinaus wurden mit der neuen Richtlinie zur besseren Durchsetzung und Modernisierung der Verbraucherschutzvorschriften der Union bestehende Instrumente des EU-Verbraucherrechts geändert, indem die Transparenz für die Verbraucherinnen und Verbraucher beim Kauf auf Online-Marktplätzen weiter erhöht wurde.
Die Sweeps werden vom CPC-Netz anhand gemeinsamer, von der Europäischen Kommission ausgearbeiteter Kriterien durchgeführt.