Skip to content

OLG Nürnberg: Plattformbetreiber wie YouTube haften auch nach Art. 6 Abs.1 Digital Services Act (DSA) nur bei unschwer erkennbareren Persönlichkeitsrechtsverletzungen auf Unterlassung

OLG Nürnberg
Urteil vom 23.07.2024
3 U 2469/23


Das OLG Nürnberg hat entschieden, dass Plattformbetreiber wie YouTube auch nach Art. 6 Abs.1 Digital Services Act (DSA) nur bei unschwer erkennbareren Persönlichkeitsrechtsverletzungen auf Unterlassung haften.

Aus den Entscheidungsgründen:
b) Diese Rechtsprechung des Bundesgerichtshofs zur Störerhaftung steht in Einklang mit den Vorgaben des nunmehr geltenden Art. 6 Abs. 1 des Gesetzes über digitale Dienste (DSA), der die bisherigen Haftungsbeschränkungen des § 10 S. 1 TMG ersetzt.

aa) Bei der Beklagten handelt es sich um einen Vermittlungsdienstleister i.S.v. Art. 2 Abs. 1 DSA, weil sie einen „Hosting“- Dienst betreibt, der darin besteht, von einem Nutzer bereitgestellte Informationen in dessen Auftrag zu speichern (Art. 3 lit. g) iii) DSA). Es ist nicht dargetan, dass die Beklagte beim Hochladen des Videos ihre neutrale Rolle verlassen und eine aktive Rolle eingenommen hat (vgl. Erwägungsgrund 18 S. 1 DSA), insbesondere dass sie bewusst mit einem Nutzer zusammenarbeitet, um rechtswidrige Tätigkeiten auszuüben (vgl. Erwägungsgrund 18 S. 1 DSA). Insbesondere genügt allein die Bereitstellung der technischen Infrastruktur samt Such- und Rankingfunktion nicht, um eine aktive Rolle des Diensteanbieters zu begründen (vgl. EuGH GRUR 2021, 1054 Rn. 95, 107 ff. – YouTube und Cyando).

bb) Anbietern von Vermittlungsdiensten wird keine allgemeine Verpflichtung auferlegt, die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hindeuten (Art. 8 DSA, vgl. § 7 Abs. 2 TMG a.F.).

Darüber hinaus enthält die Vorschrift des Art. 6 DSA einen Haftungsausschluss für Hostingdienste, um die Haftungsrisiken für diese Dienste im Rahmen zu halten. Deren Anwendungsbereich ist eröffnet, da weder der Nutzer Herr J. der Beklagten untersteht oder von ihr beaufsichtigt wird, noch es sich bei dem Video um eigene oder zu eigen gemachte Inhalte der Beklagten handelt. Daher haftet die Beklagte als Diensteanbieterin nicht für die im Auftrag des Nutzers Herrn J. in dem Video gespeicherten Informationen, sofern sie keine tatsächliche Kenntnis von rechtswidrigen Inhalten hat, und sobald sie diese Kenntnis oder dieses Bewusstsein erlangt, zügig tätig wird, um den Zugang zu den rechtswidrigen Inhalten zu sperren oder diese zu entfernen. Dabei ist die Kenntnis von einer konkreten rechtswidrigen Information erforderlich, weshalb der Hinweis auf eine behauptete Persönlichkeitsrechtsverletzung so präzise sein muss, dass der Diensteanbieter die beanstandeten Inhalte leicht auffinden und deren Rechtswidrigkeit ohne Weiteres feststellen kann (BeckOK IT-Recht/Sesing-Wagenpfeil, 14. Ed. 1.4.2024, DSA Art. 6 Rn. 52).

Auch nach Art. 6 DSA muss somit ein Anlass für den Diensteanbieter bestehen, einen Inhalt auf seine Rechtswidrigkeit hin zu überprüfen. Ein solcher Anlass kann insbesondere durch hinreichend präzise und begründete Nutzermeldungen im Verfahren nach Art. 16 DSA entstehen, wobei sich die Unaufklärbarkeit der Rechtswidrigkeit nicht zulasten des Diensteanbieters auswirken darf (BeckOK IT-Recht/Sesing-Wagenpfeil, 14. Ed. 1.4.2024, DSA Art. 6 Rn. 41). Auch in einem vorzusehenden Meldeverfahren muss nach Art. 16 Abs. 3 DSA die Information es einem sorgfältig handelnden Anbieter von Hostingdiensten ermöglichen, ohne eingehende rechtliche Prüfung festzustellen, dass die einschlägige Tätigkeit oder Information rechtswidrig ist. Sie darf es nicht erforderlich machen, dass der Hostingdiensteanbieter den Kontext eigenständig einschätzen und einer detaillierten juristischen Prüfung unterziehen muss (NK-DSA/Raue, 1. Aufl. 2023, DSA Art. 16 Rn. 51).

cc) Die Haftungsbeschränkung des § 10 S. 1 TMG galt nicht für Unterlassungsansprüche, die ihre Grundlage in einer vorangegangenen Rechtsverletzung haben (BGH a.a.O. Rn. 21 – Hotelbewertungsportal). Es kann dahinstehen, ob dies auch für Art. 6 DSA angenommen werden kann (vgl. BeckOK IT-Recht a.a.O. Art. 6 Rn. 61 ff.; NK-DSA/F. Hofmann, 1. Aufl. 2023, DSA Art. 6 Rn. 27 f.). Denn jedenfalls lässt Art. 6 Abs. 4 DSA – ebenso wie zuvor schon Art. 14 Abs. 3 der E-Commerce-Richtlinie – die Möglichkeit unberührt, dass eine Justizbehörde nach dem Rechtssystem eines Mitgliedstaats vom Diensteanbieter verlangt, eine Zuwiderhandlung abzustellen oder zu verhindern (vgl. (BGH a.a.O. Rn. 20 – www.jameda.de). Betroffen hiervon sind vor allem zivilrechtliche Beseitigungs- und Unterlassungsansprüche. Materiell fußen derartige Anordnungen im deutschen Recht bei Persönlichkeitsrechtsverletzungen auf den Grundsätzen der Haftung als mittelbare Störer analog § 1004 BGB (BeckOK IT-Recht a.a.O. Art. 6 Rn. 64).

dd) Ob die vom Bundesgerichtshof begründete grundsätzliche Notwendigkeit zur Einholung einer Stellungnahme des Nutzers durch den Hostprovider den Vorgaben des DSA widerspricht (so Müller-Terpitz/Köhler/Barudi, DSA, 1. Aufl. 2024, Art. 16 Rn. 33; auch kritisch zur Vermischung der Kenntniserlangung nach § 10 TMG und den Prüfpflichten im Rahmen der Störerhaftung MüKoStGB/Altenhain, 4. Aufl. 2023, TMG § 10 Rn. 17), kann im Streitfall offenbleiben. Allerdings sprechen nach Auffassung des Senats verschiedene Umstände gegen einen solchen Widerspruch, zumal Erwägungsgrund 50 S. 1 des DSA auf die besonders wichtige Rolle des Hostingdiensteanbieters beim Umgang mit rechtswidrigen Online-Inhalten verweist.

Zum einen steht die Kenntniserlangung i.S.v. Art. 6 Abs. 1 lit. b DSA in Wechselwirkung mit dem nach Art. 16 DSA einzurichtenden Meldeverfahren. Diese Meldungen von rechtswidrigen Inhalten sollen nach Art. 16 Abs. 3 DSA bewirken, dass für die Zwecke des Art. 6 DSA von einer tatsächlichen Kenntnis oder einem Bewusstsein in Bezug auf die betreffende Einzelinformation ausgegangen wird, wenn sie es einem sorgfältig handelnden Anbieter von Hostingdiensten ermöglichen, ohne eingehende rechtliche Prüfung festzustellen, dass die einschlägige Tätigkeit oder Information rechtswidrig ist. Auch Art. 16 Abs. 6 DSA enthält eine Verpflichtung zu einer Beschwerdeentscheidung, die sorgfältig, frei von Willkür und objektiv ist (vgl. NK-DSA/Raue, a.a.O. Art. 16 Rn. 62). Und die Pflicht zur sorgfältigen Bearbeitung einer Meldung nach Art. 16 Abs. 3 DSA kann eine Beteiligung des Verfassers des Betrags implizieren.

Zum anderen kann diese Obliegenheit zur Einholung einer Stellungnahme des Nutzers durch den Hostprovider unter die Regelung des Art. 6 Abs. 4 DSA subsumiert werden. Nach dieser Vorschrift lässt die in Abs. 1 enthaltene Privilegierung die Möglichkeit unberührt, dass eine Justizbehörde nach dem Rechtssystem eines Mitgliedstaats vom Diensteanbieter verlangt, eine Zuwiderhandlung abzustellen oder zu verhindern. Dies kann auch eine auf der Störerhaftung beruhende und aufgrund einer umfassenden Interessenabwägung unter Berücksichtigung der Umstände des Einzelfalls begründete Pflicht des Providers zur Klärung der Berechtigung der Beanstandung des Betroffenen unter Einbeziehung einer Stellungnahme des Nutzers umfassen.

c) Vor dem Hintergrund dieser materiellen Anforderungen an ein Tätigwerden des Hostproviders trifft den Portalbetreiber in prozessualer Hinsicht bezüglich der für die Abwägung der widerstreitenden grundrechtlich geschützten Belange maßgeblichen Tatsachen eine sekundäre Darlegungslast, wenn der Klagepartei insoweit eine nähere Darlegung nicht möglich ist und sie auch keine Möglichkeit zur weiteren Sachaufklärung hat. Dabei kann der Portalbetreiber auch eine Recherchepflicht haben. Diese ist ihm grundsätzlich zumutbar, da er auf Grund seiner materiellen Prüfpflicht ohnehin gehalten sein kann, vom User zusätzliche Angaben und Belege zu den Tatsachen zu fordern. Dem entspricht in prozessualer Hinsicht seine Obliegenheit, im Rahmen seiner sekundären Darlegungslast vom Nutzer entsprechende Informationen zu fordern. Kommt der Portalbetreiber dieser Obliegenheit nicht nach, sind die Tatsachenbehauptungen der Klagepartei nach den allgemeinen Regeln über die sekundäre Darlegungslast nach § 138 Abs. 3 ZPO als zugestanden zu bewerten (vgl. BGH, a.a.O. Rn. 47-49 – www.jameda.de).

Dieser Grundsatz aus dem „Jameda-Urteil“ zur Darlegungslast entspricht der ständigen Rechtsprechung des Bundesgerichtshofs, wonach den Prozessgegner eine sekundäre Darlegungslast dann trifft, wenn die primär darlegungsbelastete Partei keine nähere Kenntnis der maßgeblichen Umstände und auch keine Möglichkeit zur weiteren Sachverhaltsaufklärung hat, während dem Prozessgegner nähere Angaben dazu ohne weiteres möglich und zumutbar sind. Sie führt weder zu einer Umkehr der Beweislast noch zu einer über die prozessuale Wahrheitspflicht und Erklärungslast hinausgehenden Verpflichtung des Prozessgegners, dem Anspruchsteller alle für seinen Prozesserfolg benötigten Informationen zu verschaffen (BGH GRUR 2014, 657, Rn. 17, 18 – BearShare; BGH GRUR 2009, 871, Rn. 27 – Ohrclips).

Daraus folgt, dass die sekundäre Darlegungslast des Hostproviders und die daran anknüpfende Geständnisfiktion des § 138 Abs. 3 ZPO nicht greifen, wenn entweder die Tatsachen aus dem angegriffenen Beitrag aus der Sphäre des Betroffenen stammen oder dem Betroffenen eine weitere Sachverhaltsaufklärung – beispielsweise durch eine eigene Kontaktierung des Nutzers – möglich und zumutbar ist.

2. Im vorliegenden Fall können unter Berücksichtigung des zugrundezulegenden rechtlichen Maßstabs (nachfolgend unter Buchstabe a)) die behaupteten Persönlichkeitsrechtsverletzungen auf der Grundlage der Darlegungen des Klägers nicht unschwer bejaht werden (nachfolgend unter Buchstabe b)). Daher wurde dadurch eine Pflicht der Beklagten, i.S.v. Art. 6 Abs. 1 DSA bzw. der Rechtsprechung des Bundesgerichtshofs zur Haftung als mittelbare Störerin tätig zu werden, nicht ausgelöst (nachfolgend unter Buchstabe c)). Eine andere Beurteilung ist auch nicht vor dem Hintergrund der Grundsätze zur sekundären Darlegungslast veranlasst (nachfolgend unter Buchstabe d)).

a) Folgender Rechtsrahmen ist in Bezug auf die Voraussetzungen einer Persönlichkeitsrechtsverletzung für den Senat streitentscheidend:

Wegen der Eigenart des Persönlichkeitsrechts als Rahmenrecht liegt seine Reichweite nicht absolut fest, sondern muss erst durch eine Abwägung der widerstreitenden grundrechtlich geschützten Belange bestimmt werden. Der Eingriff in das Persönlichkeitsrecht ist nur dann rechtswidrig, wenn das Schutzinteresse des Betroffenen die schutzwürdigen Belange der anderen Seite überwiegt (BGH a.a.O. Rn. 30 – www.jameda.de). Dabei sind das durch Art. 1 Abs. 1, Art. 2 Abs. 1 GG (auch i.V.m. Art. 12 Abs. 1 GG) und Art. 8 Abs. 1 EMRK gewährleistete Interesse der bewerteten Partei am Schutz ihrer sozialen Anerkennung und ihrer (Berufs) Ehre mit der in Art. 5 Abs. 1 GG und Art. 10 EMRK verankerten Meinungsäußerungsfreiheit des Bewertenden abzuwägen.

Bei Tatsachenbehauptungen hängt die Abwägung zwischen den widerstreitenden Interessen insbesondere vom Wahrheitsgehalt ab. Wahre Tatsachenbehauptungen müssen in der Regel hingenommen werden, auch wenn sie nachteilig für den Betroffenen sind, unwahre dagegen nicht (BGH GRUR 2013, 312 Rn. 12 – IM „Christoph“). Bei unwahren Tatsachenbehauptungen hat die Meinungsfreiheit des sich Äußernden regelmäßig hinter dem Persönlichkeitsrecht des Betroffenen zurückzutreten, denn an der Verbreitung unwahrer Tatsachen besteht grundsätzlich kein schutzwürdiges Interesse.

Bei Meinungsäußerungen verlangt Art. 5 Abs. 1 S. 1 GG eine Gewichtung der Beeinträchtigung, die der Meinungsfreiheit des sich Äußernden einerseits und dem geschützten Rechtsgut andererseits droht (BVerfG NJW 2018, 770 Rn. 18). Lässt sich die Äußerung weder als Angriff auf die Menschenwürde noch als Formalbeleidigung oder Schmähung einstufen, so kommt es für die Abwägung auf die Schwere der Beeinträchtigung der betroffenen Rechtsgüter an (BVerfG NJW 1995, 3303 [3304] – Soldaten sind Mörder).

Bei Äußerungen, in denen sich wertende und tatsächliche Elemente in der Weise vermengen, dass die Äußerung insgesamt als Werturteil anzusehen ist, fällt bei der Abwägung maßgeblich der Wahrheitsgehalt der tatsächlichen Bestandteile ins Gewicht. Enthält die Meinungsäußerung einen erwiesen falschen oder bewusst unwahren Tatsachenkern, so tritt das Grundrecht der Meinungsfreiheit regelmäßig hinter die Schutzinteressen des von der Äußerung Betroffenen zurück. Denn an der Aufrechterhaltung und Weiterverbreitung herabsetzender Tatsachenbehauptungen, die unwahr sind, besteht unter dem Gesichtspunkt der Meinungsfreiheit kein schützenswertes Interesse. Wahre Tatsachenbehauptungen müssen dagegen in der Regel hingenommen werden (BGH NZG 2018, 797 Rn. 38).

Die zutreffende Sinndeutung einer Äußerung ist dabei unabdingbare Voraussetzung für die richtige rechtliche Würdigung ihres Aussagegehalts. Maßgeblich für die Deutung einer Äußerung ist die Ermittlung ihres objektiven Sinns aus der Sicht eines unvoreingenommenen und verständigen Publikums. Ausgehend vom Wortlaut, der allerdings den Sinn nicht abschließend festlegen kann, ist bei der Deutung der sprachliche Kontext, in dem die umstrittene Äußerung steht, zu berücksichtigen. Bei der Erfassung des Aussagegehalts muss die beanstandete Äußerung ausgehend von dem Verständnis eines unbefangenen Durchschnittslesers und dem allgemeinen Sprachgebrauch stets in dem Gesamtzusammenhang beurteilt werden, in dem sie gefallen ist. Sie darf nicht aus dem sie betreffenden Kontext herausgelöst einer rein isolierten Betrachtung zugeführt werden (BGH NZG 2018, 797 Rn. 20).

Ein Anspruch steht grundsätzlich nur demjenigen zu, der durch den Beitrag individuell und unmittelbar betroffen ist. Die Äußerung muss sich, so wie sie vom Verkehr verstanden wird, mit dem Anspruchstellenden befassen oder in enger Beziehung zu seinen Verhältnissen, seiner Betätigung oder gewerblichen Leistungen stehen (Wenzel, Das Recht der Wort- und Bildberichterstattung, 6. Aufl. 2018, Kap. 5 Rn. 262). Das ist primär derjenige, der in der Äußerung erwähnt ist. Eine Ausnahme von diesem Grundsatz kann in Konstellationen angenommen werden, die auf einem sehr engen Näheverhältnis beruhen (Ehefrau und Ehemann / Eltern und Kinder), wobei in diesen Fällen nicht jede (ehrverletzende) Äußerung ausreicht, sondern die Äußerung sich auch jeweils auf das Persönlichkeitsbild der mittelbar betroffenen Person auswirken muss. Darüber hinaus kann bei einem Verband auch ein Verbandsmitglied betroffen sein, wenn durch die Verletzung des Persönlichkeitsrechts des Verbands zugleich auch das eigene Persönlichkeitsbild des Mitglieds mit der Vorstellung eines Minderwertes belastet ist (vgl. Grüneberg/Grüneberg, BGB, 83. Aufl. 2024, § 823 Rn. 94). Schließlich kann bei juristischen Personen auch der unmittelbar Verantwortliche wie etwa der Alleingesellschafter und Geschäftsführer anspruchsberechtigt sein (BeckOK InfoMedienR/Söder, 44. Ed. 1.5.2024, BGB § 823 Rn. 74).

b) Unter Berücksichtigung dieses rechtlichen Maßstabs können die angegriffenen Äußerungen nicht als unschwer zu bejahende Persönlichkeitsrechtsverletzungen qualifiziert werden. Entweder handelt es sich dabei um – eine Abwägung notwendig machende – Meinungsäußerungen, keine unzutreffenden Tatsachenbehauptungen oder nicht den Kläger unmittelbar betreffende Aussagen.

aa) Bei der explizit den Kläger namentlich nennenden Aussage
„Herr W., der überall als Manager von W. genannt wird – zusammen mit Herrn Prof. R. – sind nur Teilhaber der Gesellschaft“
handelt es sich um eine zulässige Tatsachenbehauptung. Denn der Kläger behauptet selbst, Gesellschafter der W. GmbH zu sein. Dies entspricht der umgangssprachlichen Formulierung „Teilhaber der Gesellschaft“.

Gleiches gilt für die Behauptung, dass Herr W. nach außen als Manager der W. GmbH auftrete. Auch diese Äußerung ist nach dem Klägervortrag zutreffend, da der Kläger in der Klageschrift ausführt, dass Herr W. in der Außendarstellung der Gesellschaft tätig sei und die Tätigkeiten der Gesellschaft bei Veranstaltungen im Iran vorstelle.

bb) Bei der unmittelbar auf den Kläger bezogenen Äußerung
„Diese Personen (L., R., W.), die in die Taschen (der Menschen im Iran) greifen und ihnen das Geld herausziehen (rauben) […]“
handelt es sich um ein Werturteil, welches – da es nicht als Schmähkritik einzustufen ist – eine Abwägung der Grundrechtsbelange erfordert und deshalb nicht eine unschwer bejahbare Persönlichkeitsrechtsverletzung darstellt.

(1) Es handelt sich insgesamt um eine Meinungsäußerung, da die angegriffene Aussage Tatsachen und Meinungen derart vermengt, dass sie insgesamt durch die Elemente der Stellungnahme, des Dafürhaltens oder Meinens geprägt werden und durch die Trennung der tatsächlichen und der wertenden Bestandteile einer Äußerung ihr Sinn verfälscht würde.

Denn die Ermittlung des objektiven Sinns der Aussagen, deren Unterlassung der Kläger begehrt, aus der Sicht eines unvoreingenommenen und verständigen Publikums, zeigt, dass es dem sich in dem Video Äußernden maßgeblich darum geht, sein subjektives Empfinden über das Geschäftsgebaren der W. GmbH insgesamt auszudrücken. Mit der Aussage wird nicht etwa ein konkreter Sachverhalt geschildert, in dem der Kläger anderen Personen „in die Taschen“ greife und so im Wege des Diebstahls oder Betrugs Geld aus diesen Taschen an sich nehme. Es wird vielmehr deutlich, dass hier eine wertende Äußerung, nämlich die subjektive Ansicht des sich Äußernden zum Ausdruck kommt. Er vermittelt sein eigenes Werturteil, indem er zeigt, dass nach seiner Auffassung das gerügte Verhalten der W. GmbH unredlich ist, weil die Betroffenen keine angemessene Gegenleistung für ihre Bezahlung erhalten. Das ist eine subjektive Einschätzung und damit eine Meinungsäußerung.

In diesem Zusammenhang ist zu berücksichtigen, dass es in der Rechtsprechung anerkannt ist, dass selbst die Verwendung von Wörtern wie „Betrug“ oder auch „betrügerisch“ oder „Machenschaften“ nicht als Tatsachenbehauptung einer Strafbarkeit anzusehen ist, sondern als Werturteil im alltagssprachlichen Sinne (vgl. nur BGH GRUR 2015, 289, Rn. 10 – Hochleistungsmagneten; OLG Hamburg MMR 2011, 685 [688]; BGH NJW 2002, 1192 [1193]). In seiner Entscheidung Hochleistungsmagneten hielt der BGH etwa die Bezeichnungen als „groß angelegten Schwindel“ oder „Betrug“ für (zulässige) Meinungsäußerungen, da sie die Missbilligung des geschäftlichen Verhaltens der dortigen Klägerin zum Ausdruck brachten und damit eine subjektive Wertung. Selbst wenn man diese Begriffe als Entäußerung einer Rechtsauffassung verstehen wollte, änderte dies nichts an deren Zulässigkeit, denn nach ständiger Rechtsprechung des BGH sind rechtliche Bewertungen in der Regel als Meinungsäußerungen und nicht als Tatsachenbehauptung zu qualifizieren (BGH a.a.O. Rn. 10 – Hochleistungsmagneten).

(2) Die für die Feststellung der Persönlichkeitsrechtsverletzung erforderliche Abwägung ist nicht deshalb entbehrlich, weil die angegriffene Äußerung als Schmähkritik zu qualifizieren wäre und deshalb nicht am Schutz der Meinungsfreiheit nach Art. 5 Abs. 1 S. 1 GG teilhätte.

Wegen seines die Meinungsfreiheit verdrängenden Effekts ist der Begriff der Schmähkritik eng auszulegen. Auch eine überzogene, ungerechte oder gar ausfällige Kritik macht eine Äußerung für sich genommen noch nicht zur Schmähung. Hinzutreten muss vielmehr, dass bei der Äußerung nicht mehr die Auseinandersetzung in der Sache, sondern die Diffamierung des Betroffenen im Vordergrund steht, der jenseits polemischer und überspitzter Kritik herabgesetzt und gleichsam an den Pranger gestellt werden soll. Eine wertende Kritik an der gewerblichen Leistung eines Wirtschaftsunternehmens ist in der Regel auch dann vom Grundrecht der Meinungsäußerungsfreiheit gedeckt, wenn sie scharf und überzogen formuliert ist; sie kann nur unter engen Voraussetzungen als Schmähkritik angesehen werden (BGH a.a.O. Rn. 18 – Hochleistungsmagneten).

Nach diesen Grundsätzen ist die angegriffene Äußerung im Gesamtzusammenhang, in dem sie gefallen ist, nicht als Schmähkritik zu qualifizieren, da ihr ein Sachbezug nicht abgesprochen werden kann. Der Beitrag bezieht sich – für den verständigen Durchschnittsrezipienten erkennbar – insgesamt auf den wirtschaftlichen Tätigkeitsbereich der W. GmbH. Diese Auseinandersetzung in der Sache tritt nicht, wie es bei der Schmähkritik der Fall wäre, vollständig in den Hintergrund, so dass die gesamte Kommentierung sich auch nicht in einer persönlichen Kränkung erschöpft. Die Äußerung stellt ebenso wenig eine Formalbeleidigung oder einen Angriff auf die Menschenwürde des Klägers dar, da sie noch nicht das absolute Mindestmaß menschlichen Respekts verlässt (vgl. BayObLG, Beschluss vom 15.08.2023 – 204 StRR 292/23, Rn. 30). Gerade im Geschäftsverkehr muss man sich auch scharfe und überzogen formulierte Kritik gefallen lassen (vgl. BGH NJW 2015, 773 Rn. 19).

(3) Über die Rechtswidrigkeit der angegriffenen Äußerung wäre somit im Rahmen einer Gesamtabwägung der Schutzinteressen des lediglich in seiner Sozialsphäre betroffenen Klägers und dem Recht des sich Äußernden auf Meinungsfreiheit zu entscheiden. Vor diesem Hintergrund kann der Rechtsverstoß auf der Grundlage der Behauptung des Klägers nicht unschwer bejaht werden.

cc) Die weitere unmittelbar auf den Kläger bezogene Äußerung
„Noch trauriger ist, dass weder Herr W. noch Prof. R. Fachkenntnisse in Arbeitsvermittlung haben.“
enthält ebenfalls keine unschwer zu bejahende Persönlichkeitsrechtsverletzung.

Auch wenn die Äußerung insgesamt auf einem – eine Abwägung bedingenden – Werturteil beruht, enthält sie die Tatsachenbehauptung, dass der Kläger über keine (besonderen) Fachkenntnisse in der Arbeitsvermittlung verfüge, weil sie insoweit beim Adressaten zugleich die Vorstellung von konkreten, in die Wertung eingekleideten Vorgängen hervorruft. Auch wenn der Begriff der „Fachkenntnisse“ nicht eindeutig ist, enthält die Aussage für den angesprochenen Verkehr den nachprüfbaren Tatsachenkern, dass der Kläger keine langjährige Berufserfahrung und/oder Schulung durch umfassende Praxis und fundierte theoretische Kenntnisse im Bereich der Arbeitsvermittlung hat.

Dieser Tatsachenkern ist bereits nach den Darlegungen des Klägers nicht unzutreffend. Denn der Kläger trägt lediglich vor, dass er Professor an der Fakultät Betriebswirtschaft der T. Hochschule und lange Koordinator für die Iran-Aktivitäten der T. Hochschule gewesen sei. Seit 2008 habe er den Iran häufig besucht und sei mit den kulturellen und institutionellen Gegebenheiten im Iran und mit der Lage am deutschen Arbeitsmarkt vertraut. Zudem betreue er in seiner Funktion als Hochschullehrer seit Jahren auch MBA-Studierende aus dem Iran. Aus diesen Darlegungen ergibt sich nicht, dass er über spezifische – entweder durch Schulungen oder langjährige Praxiserfahrungen erworbene – Fachkenntnisse in der Arbeitsvermittlung verfügen würde, mag er auch Kenntnisse und Erfahrungen auf verwandten Gebieten besitzen, die für derartige Tätigkeiten nützlich sind.

Soweit in der Aussage darüber hinaus die fachliche Eignung des Klägers in Frage gestellt wird, handelt es sich um ein Werturteil, bei dem eine umfassende Abwägung der grundgesetzlich geschützten Interessen erforderlich ist (vgl. BVerfG GRUR 2013, 1266 – Winkeladvokat), weshalb keine unschwer zu bejahende Persönlichkeitsrechtsverletzung gegeben ist.

dd) Auch die – nicht den Kläger unmittelbar persönlich, sondern lediglich die W. GmbH betreffende – Äußerung
„Die Katastrophe scheint noch viel größer zu sein, wenn wir feststellen, dass die Firma gar nicht existiert, und die Adresse, die sie auf ihrer Website angibt, eigentlich zu einer Versicherungsfirma gehört“
kann nicht unschwer als Persönlichkeitsrechtsverletzung qualifiziert werden.

Zum einen ist – da der Kläger nur mittelbar betroffen ist – eine komplizierte Rechtsprüfung in Bezug auf dessen Aktivlegitimation veranlasst. Dabei ist zu berücksichtigen, dass ein entsprechend enges Näheverhältnis zwischen dem Kläger und der W. GmbH weder dargelegt noch erkennbar ist. Vielmehr ist der Kläger unstreitig lediglich Teil des „Teams“ des Unternehmens, hat aber bereits nach seinem eigenen Vortrag keine repräsentative Rolle inne, da nicht er, sondern Herr W. „in der Außendarstellung der Gesellschaft tätig [ist] und […] die Tätigkeiten der Gesellschaft auch bei Veranstaltungen im Iran vor[stellt]“. Auch ist er nicht Geschäftsführer der Gesellschaft. Sonstige Umstände, aus denen sich ergeben könnte, dass der Kläger in einem besonders engen Zusammenhang zu der W. GmbH stehe, sind nicht dargetan. Insbesondere bleibt seine Tätigkeit für die W. GmbH auf seinem eigenen Internetauftritt unerwähnt. Vor diesem Hintergrund ist fraglich, ob sich die über die W. GmbH getroffenen Äußerungen abträglich auf das Persönlichkeitsbild des Klägers auswirken.

Zum anderen ergibt sich aus dem Gesamtzusammenhang des Videos, dass dieses nicht die rechtliche Existenz der W. GmbH in Abrede stellt, da der Beitrag – indem an anderer Stelle ausdrücklich auf die Handelsregistereintragung Bezug genommen wird – selbst davon ausgeht, dass die W. GmbH im Handelsregister eingetragen ist. Der unvoreingenommene und verständige Durchschnittsempfänger versteht die angegriffene Äußerung daher dahingehend, dass darin als Tatsachenkern behauptet wird, dass der Geschäftsbetrieb der W. GmbH unter der auf der Webseite angegebenen Adresse physisch nicht auffindbar ist. Dieser Tatsachenkern ist nicht offenkundig unzutreffend, da die W. GmbH unstreitig in Bürogemeinschaft mit der Versicherungsfirma O. ansässig ist und sich deren Büroräume mit dieser teilt.

Die in dem Beitrag getroffene Schlussfolgerung in Bezug auf die (physische) Inexistenz der GmbH stellt eine die Abwägung erfordernde Meinungsäußerung dar.

ee) In Bezug auf die Äußerung
„Die W. GmbH verfügt über keine Erlaubnis zur Arbeitsvermittlung in Deutschland. Um dies in Deutschland tun zu dürfen, ist aber eine Genehmigung der Bundesagentur für Arbeit eine zwingende Voraussetzung, die die W. GmbH jedoch nicht hat“
stehen dem Kläger ebenfalls keine Unterlassungsansprüche gegenüber der Beklagten zu.

Zum einen ist auch hinsichtlich dieser Aussage – da der Kläger nur mittelbar betroffen ist – eine komplizierte Rechtsprüfung zur Aktivlegitimation erforderlich. Auf die obigen Ausführungen unter B.III.2.b) dd) wird Bezug genommen.

Zum anderen ist unstreitig, dass die Aussage, wonach die W. GmbH über keine Erlaubnis zur Arbeitsvermittlung verfüge, an sich zutreffend ist. Zwischen den Parteien steht lediglich im Streit, ob eine solche Erlaubnis für die von der W. GmbH betriebene Arbeitsvermittlung rechtlich erforderlich ist oder nicht. Da die Beurteilung dieser Frage eine nicht unkomplizierte Rechtsprüfung notwendig macht, ist auch aus diesem Grund keine unschwer bejahbare Persönlichkeitsrechtsverletzung gegeben. Darüber hinaus handelt es sich bei der Einschätzung der Erlaubnispflichtigkeit der Tätigkeit der W. GmbH um eine rechtliche Bewertung, somit eine Meinungsäußerung.

ff) Die Äußerung
„Um die Wahrheit zu erfahren, reicht es nur, dass wir die Eintragung im Handelsregister der W. GmbH in Deutschland prüfen. Da entdecken wir einen Haufen Betrügereien und Lügen.“
ist als Meinungsäußerung in Bezug auf die W. GmbH zu qualifizieren, weshalb auch diesbezüglich die Beklagte nicht als mittelbare Störerin haftet. Auf die obigen Ausführungen wird Bezug genommen.

c) Vor diesem Hintergrund lag im Streitfall kein Hinweis auf unschwer zu bejahenden Persönlichkeitsrechtsverletzungen des Klägers vor, aufgrund dessen die Beklagte die Rechtswidrigkeit der beanstandeten Inhalte ohne Weiteres hätte feststellen können. Daher war auch unter Zugrundelegung der Rechtsprechung des Bundesgerichtshofs zur mittelbaren Störerhaftung keine Bewertung des gesamten Sachverhalts durch die Beklagte einschließlich der Einholung einer Stellungnahme des Journalisten Herrn J. veranlasst, weshalb – wie bereits ausgeführt – der Senat nicht entscheiden muss, ob diese vom Bundesgerichtshof begründete grundsätzliche Notwendigkeit der Durchführung eines „Anhörungsverfahrens“ durch den Hostprovider den Vorgaben des DSA widerspricht.

d) Im vorliegenden Fall kann – entgegen der Rechtsauffassung des Landgerichts – auch nicht angenommen werden, dass die Beklagte in prozessualer Hinsicht ihrer sekundären Darlegungslast nicht nachkam. Deshalb sind die tatsächlichen vom Kläger vorgetragenen Umstände in Bezug auf die Beanstandungen aus dem streitgegenständlichen Video auch nicht nach § 138 Abs. 3 ZPO als zugestanden zu bewerten.

Zum einen fehlt es – wie soeben ausgeführt – an einem die materielle Prüfpflicht auslösenden Hinweis auf eine klare Persönlichkeitsrechtsverletzung.

Zum anderen ist der Journalist Herr J., der das streitgegenständliche Video auf dem You-Tube-Kanal A. hochlud, den Gesellschaftern der W. GmbH bekannt. Vor Klageerhebung hatten sie mehrere E-Mails an ihn übersandt. Außerdem war das Video bereits zuvor der Geschäftsführerin der W. GmbH zugespielt worden. Anders als bei einem Bewertungsportal – bei dem der Nutzer zulässigerweise anonym auftreten kann, weshalb der bewertete Arzt diesen nicht kennt und sich die für seine Identifizierung erforderlichen Informationen selbst dann, wenn sie dem Portalbetreiber vorliegen sollten, mangels Auskunftsanspruchs gegen den Portalbetreiber jedenfalls nicht auf diesem Weg beschaffen kann (vgl. BGH a.a.O. Rn. 38 f. – www.jamede.de) – stehen dem Kläger in Bezug auf die Äußerungen im Video durchaus Möglichkeiten zur weiteren Sachverhaltsaufklärung zur Verfügung. Zwar sieht der Senat, dass der Journalist auf die ihm übersandten Mails nicht reagiert hatte. Es besteht jedoch beispielsweise die Möglichkeit, unmittelbar gegen diesen gerichtlich vorzugehen. Dass ein solches Vorgehen gegen den in den USA wohnhaften Journalisten unzumutbar ist, trägt der Kläger nicht vor.

Schließlich handelt es sich bei den streitgegenständlichen Tatsachenbehauptungen – anders als beispielsweise der behauptete Behandlungskontakt eines anonymen Nutzers – um solche aus der Sphäre des Klägers. Der Kläger hat den besten Einblick in die W. GmbH, seinen Aufgaben darin oder seinen Fachkenntnissen in der Arbeitsvermittlung. Ihm ist Vortrag dazu möglich und zumutbar.

Deshalb trifft die Beklagte im vorliegenden Fall keine sekundäre Darlegungslast hinsichtlich der tatsächlichen Anknüpfungspunkte für die zu treffende Abwägungsentscheidung.

IV. Auch aus Art. 17 DSGVO ergibt sich kein Unterlassungsanspruch des Klägers gegenüber der Beklagten.

1. Dabei unterstellt der Senat zugunsten des Klägers, dass sich aus Art. 17 DSGVO grundsätzlich ein Unterlassungsanspruch der betroffenen Person ergeben kann (vgl. dazu Vorlagefrage des BGH in GRUR 2023, 1724 – Bewerbungsprozess).

Auch sieht der Senat, dass die Anwendbarkeit der DSGVO vom Gesetz über digitale Dienste unberührt bleibt (Art. 2 Abs. 4 lit. g DSA). Der Schutz von Einzelpersonen bei der Verarbeitung personenbezogener Daten soll sogar einzig durch die Vorschriften des Unionsrechts in diesem Bereich, insbesondere durch die DSGVO, geregelt werden (Erwägungsgrund 10 UA 3 S. 2 DSA).

Schließlich geht der Senat davon aus, dass das von dem Journalisten Herrn J. hochgeladene Video auch personenbezogene Daten des Klägers i.S.v. Art. 4 Nr. 1 DSGVO enthält.

2. Der Senat kann offenlassen, ob das Betreiben einer Videoplattform, auf der Dritte personenbezogene Daten hochladen können, eine Verarbeitung i.S.v. Art. 4 Nr. 2 DSGVO darstellt und der Hostprovider dafür als Verantwortlicher i.S.v. Art. 4 Nr. 7 DSGVO anzusehen ist. Dies könnte deshalb zweifelhaft sein, weil der Provider dadurch in Bezug auf die in dem von dem Nutzer hochgeladenen Video – anders als hinsichtlich der Daten der Nutzer und Besucher der Seiten (vgl. dazu EuGH NJW 2018, 2537 Rn. 30 – ULD/Wirtschaftsakademie Schleswig-Holstein) – lediglich Speicherplatz zur Verfügung stellt. Auch wird der Content vom Provider nicht wie von einer Suchmaschine automatisch indexiert und den Internetnutzern in einer bestimmten Rangfolge zur Verfügung gestellt (vgl. dazu BGH GRUR 2020, 1331 Rn. 13 – Recht auf Vergessenwerden).

3. Die Frage des Vorliegens einer Verarbeitung kann dahinstehen, weil unabhängig davon der Kläger aufgrund der nachfolgend genannten Umstände keinen Unterlassungsanspruch gegenüber der Beklagten als Hostproviderin geltend machen kann.

a) Begehrt ein Betroffener von dem Betreiber einer Internet-Suchmaschine wegen der (behaupteten) Unrichtigkeit eines gelisteten Inhalts dessen Auslistung, muss der Betroffene nachweisen, dass die in diesem Inhalt enthaltenen Informationen offensichtlich unrichtig sind oder zumindest ein für diesen gesamten Inhalt nicht unbedeutender Teil dieser Informationen offensichtlich unrichtig ist (BGH GRUR 2023, 1218 Rn. 33 – Recht auf Vergessenwerden II). Zwar hat der Bundesgerichtshof den für die Haftung eines Suchmaschinenbetreibers als mittelbarer Störer bestehenden Maßstab – wonach dieser aufgrund eines konkreten Hinweises Kenntnis von einer offensichtlichen und auf den ersten Blick klar erkennbaren Rechtsverletzung erlangt haben muss – für den Auslistungsanspruch nach Art. 17 Abs. 1 DSGVO zugunsten einer grundsätzlich gleichberechtigten Abwägung der sich gegenüberstehenden Grundrechte aufgegeben (BGH a.a.O. Rn. 36 – Recht auf Vergessenwerden II). Doch entspricht die Voraussetzung des bisher erforderlichen Hinweises auf eine offensichtliche und auf den ersten Blick klar erkennbare Rechtsverletzung letztlich der nunmehr maßgeblichen Voraussetzung eines relevanten und hinreichenden Nachweises, dass die in den gelisteten Inhalten enthaltenen Informationen offensichtlich unrichtig sind (BGH a.a.O. Rn. 36 – Recht auf Vergessenwerden II).

b) Die Anwendung dieses rechtlichen Maßstabs zum vom Bundesgerichtshof entwickelten Haftungsregime von Suchmaschinenbetreibern nach Art. 17 Abs. 1 DSGVO auf die Haftung von Hostprovidern führt im Streitfall dazu, dass aufgrund der erforderliche Abwägung der Unionsgrundrechte eine Löschung von der Beklagten nicht verlangt werden kann.

Zum einen gilt auch beim Provider, dass dieser – anders als der Inhalteanbieter, der den von ihm selbst generierten Inhalt unmittelbar zu verantworten hat – wie der Suchmaschinenbetreiber nur einen erleichterten Zugang zu diesem Content verschafft und damit mittelbar dessen Verbreitung fördert. Dieser unterschiedliche Grad an Einflussmöglichkeit auf die Richtigkeit des Inhalts bedingt auch bei der Haftung des Providers nach der DSGVO eine abgestufte, durch unterschiedliche Verhaltenspflichten gekennzeichnete Haftung. Auch beim Plattformprovider ergibt sich eine Auslistungspflicht nur als Folge der Verletzung nachgelagerter, durch eine initiale Meldung von Betroffenen ausgelösten Prüfungs- und Reaktionspflichten.

Zum anderen kann im Rahmen der nach Art. 17 Abs. 3 lit. a DSGVO durchzuführenden Abwägung unter Berücksichtigung des Rechts auf freie Meinungsäußerung und Information die Vorschrift des Art. 6 DSA – der die Frage der Haftung des Hostproviders explizit regelt – nicht außer Acht gelassen werden. Die darin geregelte Verantwortlichkeit des Plattformbetreibers mit entsprechenden Haftungsprivilegierungen in Gestalt eines notice and take down-Verfahrens – das dem Modell des Bundesgerichtshofs zur Haftung des mittelbaren Störers entspricht – muss auch für das unionale Datenschutzrecht gelten, sollte das Verhalten von Plattformen diesem unterliegen. Andernfalls würden die bewusst differenzierenden Regelungen des DSA umgangen, da bei entsprechendem Verständnis jedes Verhalten eines Host-Providers zugleich eine Datenverarbeitung wäre und damit einen Löschungsanspruch nach Art. 17 Abs. 1 DSA begründen würde.

c) Da – wie bereits ausgeführt – die Beklagte nicht als sogenannte mittelbare Störerin für eine Persönlichkeitsrechtsverletzung in Anspruch genommen werden kann, ist der geltend gemachte Unterlassungsanspruch auch nicht als Auslistungsverlangen in der Sache berechtigt.


Den Volltext der Entscheidung finden Sie hier:

EU-Kommission: Nach vorläufiger Feststellung verstößt die Kontoverifizierung durch X / Twitter allein durch Abschluss eines kostenpflichtigen Abos gegen den Digital Services Act (DSA)

Die EU-Kommission kommt nach vorläufiger Einschätzung zu dem Ergebnis, dass die Kontoverifizierung durch X / Twitter allein durch Abschluss eines kostenpflichtigen Abos gegen den Digital Services Act (DSA) verstößt.

Die Pressemitteilung der EU-Kommission:
Kommission übermittelt X vorläufige Feststellungen wegen Verstoßes gegen das Gesetz über digitale Dienste

Die Kommission hat X heute von ihrer vorläufigen Auffassung in Kenntnis gesetzt, dass sie in Bereichen im Zusammenhang mit Dark Patters, Transparenz der Werbung und Datenzugang für Forscher gegen das Gesetz über digitale Dienste verstößt.

Transparenz und Rechenschaftspflicht in Bezug auf die Moderation von Inhalten und Werbung stehen im Mittelpunkt des Gesetzes über digitale Dienste. Auf der Grundlage einer eingehenden Untersuchung, die unter anderem die Analyse interner Unternehmensunterlagen, Befragungen von Sachverständigen und die Zusammenarbeit mit den nationalen Koordinatoren für digitale Dienste umfasste, hat die Kommission in drei Fällen vorläufig festgestellt, dass die Vorschriften nicht eingehalten wurden:

Erstens gestaltet und betreibt X seine Schnittstelle für die „verifizierten Konten“ mit dem „Blue Checkmark“ in einer Weise, die nicht der Branchenpraxis entspricht und die Nutzer täuscht. Da jedermann einen solchen „überprüften“ Status abonnieren kann, beeinträchtigter die Fähigkeit der Nutzer, freie und fundierte Entscheidungen über die Authentizität der Konten und die Inhalte, mit denen sie interagieren, zu treffen. Es gibt Belege für motivierte böswillige Akteure, die das „verifizierte Konto“ missbrauchen, um Nutzer zu täuschen.

Zweitens hält X nicht die erforderliche Transparenz in Bezug auf Werbung ein, da es kein durchsuchbares und zuverlässiges Werbearchiv bietet, sondern Gestaltungsmerkmale und Zugangsbarrieren einrichtet, die das Repository für seine Transparenzzwecke gegenüber den Nutzern ungeeignet machen. Insbesondere ermöglicht das Design nicht die erforderliche Überwachung und Erforschung neu auftretender Risiken, die sich aus dem Online-Vertrieb von Werbung ergeben.

Drittens gewährt X Forschern keinen Zugang zu seinen öffentlichen Daten gemäß den im Gesetz über digitale Dienste festgelegten Bedingungen. Insbesondere untersagt X förderfähigen Forschern, unabhängig auf seine öffentlichen Daten zuzugreifen, z. B. durch Verschrotten, wie in seinen Nutzungsbedingungen angegeben. Darüber hinaus scheint das Verfahren von X, förderfähigen Forschern Zugang zu seiner Anwendungsprogrammierschnittstelle (API) zu gewähren, Forscher von der Durchführung ihrer Forschungsprojekte abzuhalten oder ihnen keine andere Wahl zu lassen, als unverhältnismäßig hohe Gebühren zu zahlen.

Mit der Übermittlung der vorläufigen Feststellungen teilt die Kommission X ihren vorläufigen Standpunkt mit, dass sie gegen das Gesetz über digitale Dienste verstößt. Dies greift dem Ergebnis der Untersuchung nicht vor, da X nun die Möglichkeit hat, seine Verteidigungsrechte auszuüben, indem sie die Unterlagen in der Untersuchungsakte der Kommission prüft und schriftlich auf die vorläufigen Feststellungen der Kommission antwortet. Parallel dazu wird das Europäische Gremium für digitale Dienste konsultiert.

Sollte sich die vorläufige Auffassung der Kommission letztlich bestätigen, würde die Kommission einen Verstoßbeschluss erlassen, in dem sie feststellt, dass X gegen die Artikel 25, 39 und 40 Absatz 12 des Gesetzes über digitale Dienste verstößt. Eine solche Entscheidung könnte zu Geldbußen von bis zu 6 % des weltweiten Jahresumsatzes des Anbieters führen und den Anbieter anweisen, Maßnahmen zu ergreifen, um den Verstoß zu beheben. Eine Entscheidung wegen Nichteinhaltung kann auch einen erweiterten Überwachungszeitraum auslösen, um die Einhaltung der Maßnahmen sicherzustellen, die der Anbieter zu ergreifen beabsichtigt, um den Verstoß zu beheben. Die Kommission kann auch Zwangsgelder verhängen, um eine Plattform zur Einhaltung der Vorschriften zu zwingen.

Hintergrund
X, vormals Twitter, wurde am 25. April 2023 im Rahmen des EU-Gesetzes über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem sie erklärt hatte, monatlich mehr als 45 Millionen aktive Nutzer in der EU zu erreichen.

Am 18. Dezember 2023 leitete die Kommission ein förmliches Verfahren ein, um zu prüfen, ob X möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit der Verbreitung illegaler Inhalte und der Wirksamkeit der zur Bekämpfung der Informationsmanipulation ergriffenen Maßnahmen zusammenhängen, für die die Untersuchung fortgesetzt wird, sowie Dark Patterns, Transparenz der Werbung und Datenzugang für Forscher, die Gegenstand der heute angenommenen vorläufigen Feststellungen sind.

Die Kommission hat auch ein Whistleblower-Tool eingerichtet, das es Mitarbeitern und anderen Personen mit Wissen ermöglicht, sich anonym mit der Kommission in Verbindung zu setzen, um zur Überwachung der Einhaltung durch die Kommission durch benannte sehr große Online-Plattformen/VLOSE beizutragen.

Darüber hinaus hat die Kommission im Februar und April 2024 ein förmliches Verfahren gegen TikTok, AliExpress im März 2024 und Meta im April und Mai 2024 eingeleitet.



EU-Kommission: XNXX ist eine sehr große Onlineplattformen (VLOP) im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste)

Die EU-Kommission hat entschieden, dass XNXX eine sehr große Onlineplattformen (VLOP) im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) ist

Die Pressemitteilung der EU-Kommission:
Kommission benennt nicht jugendfreie Plattform XNXX als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste

Die Kommission hat XNXX heute offiziell als sehr große Online-Plattform (VLOP) gemäß dem Gesetz über digitale Dienste benannt.

XNXX ist eine Plattform für nicht jugendfreie Inhalte mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Anzahl von Nutzern, die XNXX der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als sehr große Online-Plattform. Nach der heutigen Benennung als sehr große Online-Plattform muss XNXX nun innerhalb von vier Monaten nach seiner Benachrichtigung (d. h. ab Mitte November 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten. Zu den Verpflichtungen gehören die Ergreifung besonderer Maßnahmen zur Stärkung und zum Schutz ihrer Online-Nutzer. So müssen sie den Zugang Minderjähriger zu pornografischen Online-Inhalten verhindern (auch mit Instrumenten zur Altersüberprüfung), Forschern öffentlich zugängliche Daten zur Verfügung stellen und ein Archiv der Werbeanzeigen veröffentlichen.

Darüber hinaus muss XNXX alle systemischen Risiken, die sich aus seinen Diensten ergeben, gründlich bewerten und mindern, z. B. Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte oder negativen Auswirkungen auf das geistige und körperliche Wohlbefinden der Nutzer. Den ersten Risikobewertungsbericht muss die benannte Plattform bis Mitte November 2024 vorlegen.

Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich XNXX, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Dazu gehören z. B. die Bereitstellung benutzerfreundlicher Mechanismen zur Meldung illegaler Inhalte, die eindeutige Kennzeichnung von Werbung in ihren Diensten und die Veröffentlichung jährlicher Transparenzberichte.

Nächste Schritte
Nach der Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch XNXX in Zusammenarbeit mit dem tschechischen Koordinator für digitale Dienste zu überwachen.

Hintergrund
Diese Benennung verdeutlicht, dass die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt.

Die Kommission hatte im Dezember 2023 bereits drei weitere Plattformen für nicht jugendfreie Inhalte benannt, nämlich Pornhub, Stripchat und XVideos. Mit der heutigen Benennung erhöht sich die Zahl der gemäß dem Gesetz über digitale Dienste als solche benannten sehr großen Online-Plattformen und -Suchmaschinen auf insgesamt 25.

Im Rahmen ihrer Aufsichts- und Durchsetzungsaufgaben überwacht die Kommission die Einhaltung des Gesetzes über digitale Dienste durch sehr große Online-Plattformen und kann per Auskunftsverlangen von den Plattformen weitere detaillierte Informationen darüber einholen, wie diese ihren gesetzlichen Verpflichtungen nachkommen. Am 13. Juni 2024 richtete die Kommission solche Auskunftsverlangen an Pornhub, Stripchat und XVideos. Darin forderte sie die Plattformen auf, ausführlichere Informationen über ihre Maßnahmen gegen die Verstärkung illegaler Inhalte und geschlechtsspezifischer Gewalt und über ihre Alterskontrollvorkehrungen zu geben.

Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste teilen sich die Kommission und die Koordinatoren für digitale Dienste, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.

EU-Kommission: TEMU ist eine sehr große Online-Plattform im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat entschieden, dass TEMU eine sehr große Online-Plattform im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste ist.

Die Pressemitteilung der EU-Kommission:
Kommission benennt Temu als sehr große Online-Plattform gemäß dem Gesetz über digitale Dienste

Die Kommission hat Temu heute offiziell als sehr große Online-Plattform (VLOP) im Rahmen des Gesetzes über digitale Dienste (DSA) benannt.

Temu ist ein Online-Marktplatz mit durchschnittlich mehr als 45 Millionen monatlichen Nutzern in der Europäischen Union. Diese Nutzernummer, die Temu der Kommission mitgeteilt hat, liegt über dem Schwellenwert des Gesetzes über digitale Dienste für die Benennung als VLOP.

Nach der heutigen Benennung als VLOP muss Temu innerhalb von vier Monaten nach seiner Mitteilung (d. h. bis Ende September 2024) die strengsten Vorschriften des Gesetzes über digitale Dienste einhalten, wie etwa die Verpflichtung, alle systemischen Risiken, die sich aus seinen Dienstleistungen ergeben, einschließlich der Listung und des Verkaufs von gefälschten Waren, unsicheren oder illegalen Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen, ordnungsgemäß zu bewerten und zu mindern.

Zu diesen zusätzlichen Verpflichtungen gehören insbesondere:

Sorgfältigere Überwachung illegaler Produkte

-Temu muss die spezifischen systemischen Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte und Produkte sowie aus der Konzeption oder dem Funktionieren seines Dienstes und der damit verbundenen Systeme sorgfältig analysieren. Die Risikobewertungsberichte sind der Kommission vier Monate nach der Mitteilung der förmlichen Benennung und danach ein Jahr vorzulegen.

- Temu muss Risikominderungsmaßnahmen ergreifen, um Risiken zu begegnen, z. B. durch die Aufnahme und den Verkauf von nachgeahmten Waren, unsicheren Produkten und Gegenständen, die Rechte des geistigen Eigentums verletzen. Diese Maßnahmen können die Anpassung der Nutzungsbedingungen, die Verbesserung der Gestaltung der Benutzerschnittstellen im Hinblick auf eine bessere Meldung und Aufdeckung verdächtiger Listen, die Verbesserung der Moderationsverfahren zur raschen Entfernung illegaler Gegenstände und die Verfeinerung der Algorithmen umfassen, um die Förderung und den Verkauf verbotener Waren zu verhindern.

- Temu muss seine internen Prozesse, Ressourcen, Tests, Dokumentation und Überwachung aller Tätigkeiten im Zusammenhang mit der Erkennung systemischer Risiken verstärken.

Verstärkte Verbraucherschutzmaßnahmen

- In den jährlichen Risikobewertungsberichten von Temu müssen insbesondere mögliche negative Auswirkungen auf die Gesundheit und Sicherheit der Verbraucher bewertet werden, wobei der Schwerpunkt auf dem körperlichen und geistigen Wohlbefinden minderjähriger Nutzer liegen sollte.

- Temu ist verpflichtet, seine Plattform, einschließlich Benutzerschnittstellen, Empfehlungsalgorithmen und Nutzungsbedingungen, zu strukturieren, um Risiken für die Sicherheit und das Wohlbefinden der Verbraucher zu mindern und zu verhindern. Es müssen Maßnahmen ergriffen werden, um die Verbraucher vor dem Kauf unsicherer oder illegaler Waren zu schützen, wobei ein besonderer Schwerpunkt darauf liegen sollte, den Verkauf und Vertrieb von Produkten, die für Minderjährige schädlich sein könnten, zu verhindern. Dazu gehört auch die Einführung robuster Alterssicherungssysteme, um den Kauf altersbegrenzter Güter zu beschränken.

Mehr Transparenz und Rechenschaftspflicht

- Temu muss sicherstellen, dass seine Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste jedes Jahr extern und unabhängig geprüft werden.

-Temu muss Repository aller Anzeigen veröffentlichen, die auf seiner Schnittstelle angezeigt werden.

- Temu muss Forschern, einschließlich zugelassener Forscher, die von den Koordinatoren für digitale Dienste benannt wurden, Zugang zu öffentlich zugänglichen Daten gewähren.

- Temu muss die Transparenzanforderungen erfüllen, einschließlich der Veröffentlichung von Transparenzberichten über Entscheidungen zur Moderation von Inhalten und des Risikomanagements alle sechs Monate zusätzlich zu den Berichten über die Systemrisiken und den Prüfungsergebnissen einmal jährlich.

- Temu muss eine Compliance-Funktion benennen und jedes Jahr einer externen unabhängigen Prüfung unterzogen werden.

Allgemeine Anwendbarkeit des Gesetzes über digitale Dienste auf Online-Plattformen und -Marktplätze

Seit dem 17. Februar 2024 müssen alle Online-Plattformen, einschließlich Temu, bereits die allgemeinen Verpflichtungen aus dem Gesetz über digitale Dienste erfüllen. Diese allgemeinen Bestimmungen umfassen die Verpflichtung von Online-Marktplätzen,

- Gewährleistung der Rückverfolgbarkeit von Händlern auf ihren Plattformen;
- Ihre Schnittstelle so zu gestalten, dass den Unternehmern die Einhaltung ihrer rechtlichen Verpflichtungen nach dem EU-Recht erleichtert wird;
- Die Verbraucher über den Kauf eines illegalen Produkts informieren, sobald sie von der Illegalität des Produkts Kenntnis erlangen.


Seit dem 17. Februar 2024 sind alle Online-Plattformen, einschließlich Marktplätze, nach dem Gesetz über digitale Dienste außerdem verpflichtet,

- Bereitstellung benutzerfreundlicher Mechanismen, die es Nutzern oder Stellen ermöglichen, illegale Inhalte zu melden;
- Der Behandlung von Meldungen, die von sogenannten „vertrauenswürdigen Hinweisgebern“ übermittelt werden, Vorrang einzuräumen;
- Den Nutzern Begründungen zur Verfügung zu stellen, wenn ihre Inhalte eingeschränkt oder entfernt werden;
- Bereitstellung eines internen Beschwerdemanagementsystems für Nutzer, um Entscheidungen über die Moderation von Inhalten anzufechten;
- Ihre Systeme neu gestalten, um ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu gewährleisten;
- Sicherstellen, dass ihre Schnittstellen nicht so gestaltet sind, dass die Nutzer getäuscht oder manipuliert werden;
- Werbung auf ihren Schnittstellen deutlich kennzeichnen;
- Die Anzeige gezielter Werbung auf der Grundlage von Profilen sensibler Daten (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung) oder die sich an Minderjährige richtet, einzustellen;
- Klare Bedingungen haben und bei ihrer Anwendung sorgfältig, objektiv und verhältnismäßig handeln;
- Sie veröffentlichen einmal jährlich Transparenzberichte über ihre Verfahren zur Moderation von Inhalten.

Nächste Schritte

Nach ihrer Benennung als VLOP wird die Kommission befugt sein, die Einhaltung des Gesetzes über digitale Dienste durch Temu in Zusammenarbeit mit dem irischen Koordinator für digitale Dienste zu überwachen.

Die Kommissionsdienststellen werden die Anwendung der Vorschriften und Verpflichtungen des Gesetzes über digitale Dienste durch die Plattform sorgfältig überwachen, insbesondere in Bezug auf Maßnahmen zur Gewährleistung des Verbraucherschutzes und zur Bekämpfung der Verbreitung illegaler Produkte. Die Kommissionsdienststellen sind bereit, eng mit Temu zusammenzuarbeiten, um sicherzustellen, dass diese angemessen angegangen werden.

Hintergrund

Diese Bezeichnung veranschaulicht, wie die Kommission die Marktentwicklungen weiterhin aufmerksam verfolgt. Die Kommission hat nun 24 sehr große Online-Plattformen und Suchmaschinen im Rahmen des Gesetzes über digitale Dienste benannt.

Am 25. April 2023 benannte die Kommission die ersten 19 sehr großen Betriebsplattformen (VLOP) und sehr große Online-Suchmaschinen (VLOSE). Ab Ende August mussten diese sehr großen Online-Plattformen und sehr großen Online-Plattformen die zusätzlichen Verpflichtungen gemäß Abschnitt 5 des Gesetzes über digitale Dienste erfüllen. Am 20. Dezember 2023 wurden drei weitere sehr große Online -Plattformen benannt. Am 26. April 2024 benannte die Kommission Shein als VLOP, für das die zusätzliche Verpflichtung im August 2024 verbindlich wird.

Die Überwachung und Durchsetzung des Gesetzes über digitale Dienste wird von der Kommission und den Koordinatoren für digitale Dienste geteilt, die von den Mitgliedstaaten bis zum 17. Februar 2024 benannt werden mussten.

EU-Kommission: Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen möglicherweise unzureichendem Schutz Minderjähriger auf Instagram und Facebook

Die EU-Kommission hat ein förmliches Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen möglicherweise unzureichendem Schutz Minderjähriger auf Instagram und Facebook eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen Meta nach dem Gesetz über digitale Dienste zum Schutz Minderjähriger auf Facebook und Instagram ein

Die Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta, der Anbieter von Facebook und Instagram, in Bereichen im Zusammenhang mit dem Schutz Minderjähriger möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Die Kommission ist besorgt, dass die Systeme sowohl von Facebook als auch von Instagram, einschließlich ihrer Algorithmen, Verhaltensabhängigkeiten bei Kindern stimulieren und so genannte „Rabbit-Out-Effekte“ erzeugen können. Darüber hinaus ist die Kommission besorgt über die Alterssicherungs- und Überprüfungsmethoden, die Meta eingeführt hat.

Die heutige Einleitung des Verfahrens stützt sich auf eine vorläufige Analyse des von Meta im September 2023 übermittelten Risikobewertungsberichts, auf die Antworten von Meta auf die förmlichen Auskunftsersuchen der Kommission (zum Schutz Minderjähriger und zur Methodik der Risikobewertung), auf öffentlich zugängliche Berichte sowie auf die eigene Analyse der Kommission.

Das vorliegende Verfahren betrifft folgende Bereiche:

- Die Einhaltung der Verpflichtungen von Meta im Rahmen des Gesetzes über digitale Dienste zur Bewertung und Minderung von Risiken, die durch die Gestaltung der Online-Schnittstellen von Facebook und Instagram verursacht werden, was die Schwächen und Unerfahrenheit Minderjähriger ausnutzen und zu Suchtverhalten führen und/oder den sogenannten „Rabbit-Locheffekt“ verstärken kann. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden von Kindern sowie für die Achtung ihrer Rechte entgegenzuwirken.

- Die Einhaltung der Anforderungen des Gesetzes über digitale Dienste durch Meta in Bezug auf die Risikominderungsmaßnahmen zur Verhinderung des Zugangs Minderjähriger zu unangemessenen Inhalten, insbesondere zu den von Meta verwendeten Instrumenten zur Altersüberprüfung, die möglicherweise nicht angemessen, verhältnismäßig und wirksam sind.
- Die Einhaltung der Verpflichtungen von Meta im Gesetz über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere im Hinblick auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Konzeption und Funktionsweise ihrer Empfehlungssysteme.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 28, 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Einleitung eines förmlichen Verfahrens greift dem Ergebnis des Verfahrens nicht vor und lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die eine Zuwiderhandlung gegen das Gesetz über digitale Dienste darstellen könnten.

Nächste Schritte
Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen und weiterhin Beweise sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie den Erlass einstweiliger Maßnahmen und Beschlüsse wegen Nichteinhaltung der Vorschriften zu ergreifen. Die Kommission ist ferner befugt, Verpflichtungszusagen von Meta anzunehmen, mit denen die im Verfahren aufgeworfenen Probleme behoben werden sollen.

Die Einleitung dieses förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste im Zusammenhang mit einem mutmaßlichen Verstoß gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
Facebook und Instagram wurden am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattformen (VLOP) eingestuft, da beide über 45 Millionen monatlich aktive Nutzer in der EU haben. Als sehr große Online-Plattformen mussten Facebook und Instagram vier Monate nach ihrer Benennung, d. h. Ende August 2023, damit beginnen, eine Reihe von Verpflichtungen gemäß dem Gesetz über digitale Dienste zu erfüllen. Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.

Am 30. April 2024 hatte die Kommission bereits ein förmliches Verfahren gegen Meta eingeleitet, und zwar sowohl in Bezug auf Facebook als auch in Bezug auf Instagram in Bezug auf irreführende Werbung, politische Inhalte, Melde- und Abhilfemechanismen, den Datenzugang für Forscher sowie die Tatsache, dass im Vorfeld der Wahlen zum Europäischen Parlament kein wirksames Instrument für den Bürgerdiskurs Dritter in Echtzeit zur Verfügung steht.



EU-Kommission: Facebook und Instagram - Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen unzureichender Maßnahmen gegen Irreführende Werbung und Desinformation

Die EU-Kommission hat ein Verfahren gegen Meta nach dem Digital Services Act (DSA) wegen unzureichender Maßnahmen gegen Irreführende Werbung und Desinformation auf Facebook und Instagram eingeleitet.

Die Pressemitteilung des EU-Kommission:
Kommission leitet förmliches Verfahren gegen Facebook und Instagram nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat heute ein förmliches Verfahren eingeleitet, um zu prüfen, ob Meta, der Anbieter von Facebook und Instagram, möglicherweise gegen das Gesetz über digitale Dienste (DSA) verstoßen hat.

Kommissionspräsidentin Ursula von der Leyen erklärte: „Diese Kommission hat Mittel geschaffen, um die europäischen Bürgerinnen und Bürger vor gezielter Desinformation und Manipulation durch Drittländer zu schützen. Wenn wir einen Verstoß gegen die Vorschriften vermuten, handeln wir. Dies gilt jederzeit, insbesondere in Zeiten demokratischer Wahlen. Große digitale Plattformen müssen ihrer Verpflichtung nachkommen, ausreichende Ressourcen dafür einzusetzen, und die heutige Entscheidung zeigt, dass wir mit der Einhaltung ernstlich sind. Der Schutz unserer Demokratien ist ein gemeinsamer Kampf mit unseren Mitgliedstaaten. Heute in Prag möchte ich Premierminister Fiala für seine aktive Rolle bei der Befassung mit diesem Thema auf europäischer Ebene sowie für die Aktivierung des Notfallmechanismus für den Informationsaustausch zwischen den Mitgliedstaaten durch Belgien danken.“

Die mutmaßlichen Verstöße betreffen die Strategien und Praktiken von Meta in Bezug auf irreführende Werbung und politische Inhalte in seinen Diensten. Sie betreffen auch die Nichtverfügbarkeit eines wirksamen zivilgesellschaftlichen Diskurses und Wahlüberwachungsinstruments Dritter in Echtzeit im Vorfeld der Wahlen zum Europäischen Parlament vor dem Hintergrund, dass Meta sein Echtzeit-Tool für öffentliche Einblicke CrowdTangle ohne angemessenen Ersatz verdrängt hat.

Darüber hinaus vermutet die Kommission, dass der Mechanismus zur Kennzeichnung illegaler Inhalte in den Diensten („Notice-and-Action“) sowie die Rechtsbehelfe der Nutzer und interne Beschwerdemechanismen nicht den Anforderungen des Gesetzes über digitale Dienste entsprechen und dass Meta bei der Bereitstellung des Zugangs zu öffentlich zugänglichen Daten für Forscher Mängel aufweist. Die Einleitung des Verfahrens stützt sich auf eine vorläufige Analyse des von Meta im September 2023 übermittelten Risikobewertungsberichts, die Antworten von Meta auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten und Desinformationen, Datenzugang, Abonnements für „No-Ads“-Politik und generative KI), öffentlich zugänglichen Berichten und der eigenen Analyse der Kommission.

Das vorliegende Verfahren wird sich auf folgende Bereiche konzentrieren:

- Irreführende Werbung und Desinformation. Die Kommission vermutet, dass Meta seinen Verpflichtungen aus dem Gesetz über digitale Dienste im Zusammenhang mit der Verbreitung irreführender Werbung, Desinformationskampagnen und einem koordinierten unauthentischen Verhalten in der EU nicht nachkommt. Die Verbreitung solcher Inhalte kann eine Gefahr für den gesellschaftlichen Diskurs, die Wahlprozesse und die Grundrechte sowie den Verbraucherschutz darstellen.
- Sichtbarkeit politischer Inhalte. Die Kommission vermutet, dass die Politik von Meta im Zusammenhang mit dem „politischen inhaltlichen Ansatz“, der politische Inhalte in den Empfehlungssystemen von Instagram und Facebook, einschließlich ihrer Feeds, abbildet, nicht mit den Verpflichtungen aus dem Gesetz über digitale Dienste im Einklang steht. Im Mittelpunkt der Untersuchung steht die Vereinbarkeit dieser Politik mit den Transparenz- und Rechtsbehelfspflichten der Nutzer sowie mit den Anforderungen zur Bewertung und Minderung der Risiken für den gesellschaftlichen Diskurs und die Wahlprozesse.

Die Tatsache, dass im Vorfeld der bevorstehenden Wahlen zum Europäischen Parlament und anderer Wahlen in verschiedenen Mitgliedstaaten kein wirksames Instrument für den Bürgerdiskurs und die Wahlbeobachtung durch Dritte in Echtzeit zur Verfügung steht. Meta ist dabei, „CrowdTangle“ auszuhöhlen, ein Instrument für öffentliche Einblicke, das eine Echtzeit-Wahlüberwachung durch Forscher, Journalisten und die Zivilgesellschaft ermöglicht, auch durch visuelle Live-Dashboards ohne angemessenen Ersatz. Wie jedoch in den jüngsten Leitlinien der Kommission für Anbieter sehr großer Online-Plattformen zu systemischen Risiken für Wahlprozesse zum Ausdruck kommt, sollte der Zugang zu solchen Instrumenten in Zeiten von Wahlen ausgeweitet werden. Die Kommission vermutet daher, dass Meta die Risiken im Zusammenhang mit den Auswirkungen von Facebook und Instagram auf den gesellschaftlichen Diskurs und die Wahlprozesse sowie andere systemische Risiken nicht sorgfältig bewertet und angemessen gemindert hat. Angesichts der Reichweite der Meta-Plattformen in der EU (auf die monatlich mehr als 250 Millionen aktive Nutzer entfallen) und im Anschluss an die Wahl zum Europäischen Parlament, die vom 6. bis 9. Juni 2024 stattfinden wird, und einer Reihe weiterer Wahlen, die in verschiedenen Mitgliedstaaten stattfinden, könnte eine solche Deutung den gesellschaftlichen Diskurs und die Wahlprozesse in Bezug auf die Fähigkeiten zur Verfolgung von Fehl- und Desinformation, die Ermittlung der Einmischung und Unterdrückung von Wählern und die allgemeine Transparenz in Echtzeit für Faktenprüfer, Journalisten und andere relevante Interessenträger bei Wahlen beeinträchtigen. Die Kommission behält sich ihre Bewertung der Art und des Ausmaßes des Schadens vor und erwartet, dass Meta mit der Kommission zusammenarbeiten wird, indem sie unverzüglich die für eine solche Bewertung erforderlichen Informationen vorlegt. Die Kommission erwartet ferner, dass Meta rasch alle erforderlichen Maßnahmen ergreifen wird, um eine wirksame öffentliche Kontrolle seines Dienstes in Echtzeit zu gewährleisten, indem es Forschern, Journalisten und Wahlbeamten angemessenen Zugang zu Echtzeit-Überwachungsinstrumenten für Inhalte gewährt, die in seinen Diensten gehostet werden. Meta wird außerdem aufgefordert, innerhalb von fünf Arbeitstagen mitzuteilen, welche Abhilfemaßnahmen getroffen wurden. Die Kommission hat sich das Recht vorbehalten, Maßnahmen zu ergreifen, falls diese Maßnahmen als unzureichend erachtet werden.
Der Mechanismus zur Kennzeichnung illegaler Inhalte. Die Kommission vermutet, dass der Melde- und Abhilfemechanismus von Meta, der es Nutzern ermöglicht, illegale Inhalte in seinen Diensten zu melden, gegen die Verpflichtungen aus dem Gesetz über digitale Dienste verstößt. Dies schließt den Verdacht ein, dass die Anforderungen, mit denen dieser Mechanismus leicht zugänglich und benutzerfreundlich sein muss, nicht erfüllt sind. Gleichzeitig vermutet die Kommission, dass Meta kein wirksames internes Beschwerdemanagementsystem für die Einreichung von Beschwerden gegen Entscheidungen zur Moderation von Inhalten eingerichtet hat.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 14 Absatz 1, Artikel 16 Absätze 1 und 5, Artikel 16 Absatz 6, Artikel 17 Absatz 1, Artikel 20 Absatz 1, Artikel 20 Absatz 3, Artikel 24 Absatz 5, Artikel 25 Absatz 1, Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die eine Zuwiderhandlung im Rahmen des Gesetzes über digitale Dienste darstellen könnten.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, Verpflichtungszusagen von Meta anzunehmen, mit denen die im Verfahren aufgeworfenen Probleme behoben werden sollen. Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 14 Absatz 1, Artikel 16 Absätze 1 und 5, Artikel 16 Absatz 6, Artikel 20 Absätze 1 und 3, Artikel 24 Absatz 5, Artikel 25 Absatz 1 und Artikel 40 Absatz 12 zu überwachen und durchzusetzen.

Hintergrund
Facebook und Instagram wurden am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattformen (VLOP) eingestuft, da beide über 45 Millionen monatlich aktive Nutzer in der EU haben. Als sehr große Online-Plattformen mussten Facebook und Instagram vier Monate nach ihrer Benennung, d. h. Ende August 2023, damit beginnen, eine Reihe von Verpflichtungen gemäß dem Gesetz über digitale Dienste zu erfüllen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.



EU-Kommission: Weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite

Die EU-Kommission hat ein weiteres Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) aufgrund der "task und reward"-Version TikTok Lite eingleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet Verfahren gegen TikTok im Rahmen des Gesetzes über digitale Dienste wegen des Starts von TikTok Lite in Frankreich und Spanien ein und teilt ihre Absicht mit, das Belohnungsprogramm in der EU auszusetzen

Die Kommission hat heute ein zweites förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste (DSA) eingeleitet. Mit der heutigen Eröffnung soll geprüft werden, ob das Unternehmen bei der Gründung von TikTok Lite in Frankreich und Spanien möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat. Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Die Kommission ist besorgt darüber, dass das „Task and Reward Program“ von TikTok Lite, das es Nutzern ermöglicht, Punkte zu erhalten, wenn sie bestimmte „Aufgaben“ auf TikTok erfüllen – wie z. B. Videos, Liking-Inhalte, Nachbereiter, Einladung von Freunden zum Beitritt zu TikTok usw. – ohne vorherige sorgfältige Bewertung der damit verbundenen Risiken, insbesondere der mit dem Suchteffekt der Plattformen verbundenen Risiken, und ohne wirksame Risikominderungsmaßnahmen zu ergreifen. Dies ist für Kinder besonders besorgniserregend, da auf TikTok vermutet wird, dass es keine wirksamen Mechanismen zur Altersüberprüfung gibt. Das Fehlen wirksamer Mechanismen zur Altersüberprüfung und die mutmaßliche suchterzeugende Gestaltung der Plattformen werden bereits im ersten förmlichen Verfahren gegen TikTok untersucht.

Die Untersuchung wird sich daher auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtung von TikTok, vor der Einführung von Funktionen, in diesem Fall des Programms „Task and Reward Lite“, einen Risikobewertungsbericht zu erstellen und vorzulegen, die wahrscheinlich kritische Auswirkungen auf Systemrisiken haben werden. Insbesondere negative Auswirkungen auf die psychische Gesundheit, einschließlich der psychischen Gesundheit Minderjähriger, insbesondere aufgrund des neuen Merkmals, das Suchtverhalten stimuliert.
- Die von TikTok ergriffenen Maßnahmen zur Minderung dieser Risiken.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 34 und 35 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Darüber hinaus übermittelte die Kommission TikTok auf der Grundlage eines Beschlusses der Kommission ein förmliches Auskunftsverlangen, in dem das Unternehmen zur Beantwortung seines Auskunftsersuchens vom 17. April 2024 aufgefordert wurde. Insbesondere hatte die Kommission TikTok aufgefordert, bis zum 18. April den Risikobewertungsbericht für TikTok Lite sowie Informationen über die Maßnahmen vorzulegen, die die Plattform ergriffen hat, um potenzielle systemische Risiken dieser neuen Funktionen zu mindern. TikTok hat dieses Dokument nicht fristgerecht vorgelegt.

TikTok hat nun bis zum 23. April Zeit, der Kommission den Risikobewertungsbericht und bis zum 3. Mai die übrigen angeforderten Informationen vorzulegen.

Falls TikTok das Auskunftsersuchen der Kommission nicht innerhalb der angegebenen Fristen per Beschluss beantwortet, kann die Kommission Geldbußen in Höhe von bis zu 1 % des jährlichen Gesamtumsatzes oder des weltweiten Gesamtumsatzes des Anbieters sowie Zwangsgelder in Höhe von bis zu 5 % des durchschnittlichen Tageseinkommens des Anbieters oder des weltweiten Jahresumsatzes verhängen.

Da TikTok nicht in der Lage war, die Risikobewertung vorzulegen, die vor der Einführung von TikTok Lite hätte durchgeführt werden müssen, vermutet die Kommission einen prima facie Verstoß gegen das Gesetz über digitale Dienste und ist der Auffassung, dass die Gefahr einer schwerwiegenden Schädigung der psychischen Gesundheit der Nutzer besteht. Die Kommission hat TikTok daher auch ihre Absicht mitgeteilt, vorläufige Maßnahmen zu ergreifen, die in der Aussetzung des Programms „TikTok Lite“ in der EU bis zur Bewertung seiner Sicherheit bestehen. Es könnte verlängert werden, wenn dies notwendig und verhältnismäßig ist. Vor der förmlichen Annahme der Aussetzung wurde TikTok bis zum 24. April Zeit eingeräumt, in seiner Verteidigung Argumente vorzubringen, die die Kommission sorgfältig prüfen wird.

Nächste Schritte
Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße zu überwachen und durchzusetzen.

Hintergrund
Am 25. April 2023 benannte die Kommission TikTok gemäß dem Gesetz über digitale Dienste auf der Grundlage der TikTok -Nutzerdatenbank, die den Schwellenwert von 45 Millionen durchschnittlichen aktiven Nutzern in der EU erreicht, TikTok als sehr große Online-Plattform. Seit Ende August 2023 unterliegt TikTok den Verpflichtungen aus dem Gesetz über digitale Dienste.

TikTok Lite ist eine neue App mit einer Funktion für Nutzer ab 18 Jahren, die als „Task and Reward Program“ bezeichnet wird und es Nutzern ermöglicht, bei der Ausführung bestimmter „Aufgaben“ auf TikTok Punkte zu erhalten, wie z. B. Videos anschauen, Liking-Inhalte, Nachschaffende, Einladung von Freunden zum TikTok usw. Diese Punkte können gegen Belohnung wie Amazon-Gutscheine, Geschenkkarten über PayPal oder TikTok-Münzen, die für Kipper ausgegeben werden können, ausgetauscht werden. TikTok Lite wurde im letzten Monat in Frankreich und Spanien ins Leben gerufen.

Im Rahmen des Gesetzes über digitale Dienste sind die benannten sehr großen Online-Plattformen verpflichtet, einen Risikobewertungsbericht vorzulegen, der auch Maßnahmen zur Minderung potenzieller Systemrisiken enthält, bevor neue Funktionen eingeführt werden, die wahrscheinlich kritische Auswirkungen auf ihre Systemrisiken haben.

Im Februar 2024 leitete die Kommission ein erstes förmliches Verfahren gegen TikTok ein, um zu prüfen, ob TikTok möglicherweise gegen das Gesetz über digitale Dienste in Bereichen verstoßen hat, die mit dem Schutz Minderjähriger, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte zusammenhängen. Die Untersuchung ist noch nicht abgeschlossen.

Derzeit sind zwei weitere förmliche Verfahren im Rahmen des Gesetzes über digitale Dienste anhängig: eine gegen X und eine gegen AliExpress.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EuGH-Vizepräsident: Eilantrag von Amazon gegen Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt

Vizepräsidenten des EuGH
Beschluss vom 27.03.2024
C-639/23 P(R)
EU-Kommission / Amazon Services Europe


Der EuGH-Vizepräsident hat den Eilantrag von Amazon gegen die Verpflichtung zur Veröffentlichung des Amazon Store Werbearchivs mit detaillierten Informationen über Online-Werbung abgelehnt.

Die Pressemitteilung des EuGH:
Online-Werbung: Der Antrag von Amazon auf Aussetzung ihrer Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, wird zurückgewiesen

Amazon Services Europe gehört zum Amazon-Konzern. Ihre geschäftlichen Aktivitäten umfassen den OnlineEinzelhandel und weitere Dienstleistungen wie Cloud Computing und Online-Streaming. Sie erbringt OnlineMarktplatzdienste an Drittverkäufer und ermöglicht ihnen, Waren im Amazon Store zum Kauf anzubieten.

Mit Beschluss vom 23. April 20231 , der gemäß der Verordnung über einen Binnenmarkt für digitale Dienste erlassen wurde, benannte die Kommission Amazon Store als sehr große Online-Plattform. Dies bedeutet u. a., dass Amazon Store ein Werbearchiv mit detaillierten Informationen über ihre Online-Werbung öffentlich zugänglich machen muss. Amazon beantragte beim Gericht der Europäischen Union die Nichtigerklärung dieses Beschlusses. Sie stellte außerdem einen Antrag auf vorläufigen Rechtsschutz. Mit Beschluss vom 27. September 20234 ordnete der Präsident des Gerichts die Aussetzung des Beschlusses der Kommission an, soweit Amazon Store damit verpflichtet wird, das Werbearchiv öffentlich zugänglich zu machen. Die Kommission hat gegen den Beschluss des Präsidenten des Gerichts beim Gerichtshof ein Rechtsmittel eingelegt.

Mit seinem heutigen Beschluss hebt der Vizepräsident des Gerichtshofs den Teil des Beschlusses des Präsidenten des Gerichts auf, mit dem der Beschluss der Kommission in Bezug auf das Werbearchiv ausgesetzt wird. Er stellt fest, dass der Kommission unter Verstoß gegen den Grundsatz eines kontradiktorischen Verfahrens die Möglichkeit vorenthalten wurde, zu den Argumenten, die von Amazon im Verfahren vor dem Gericht vorgetragen wurden, Stellung zu nehmen. Da die Kommission vor dem Gerichtshof die Argumente vorgetragen hat, mit denen sie dem Vorbringen von Amazon vor dem Gericht entgegentreten wollte, entscheidet der Vizepräsident des Gerichtshofs den Rechtsstreit endgültig und weist den Antrag auf vorläufigen Rechtsschutz zurück.

Der Vizepräsident des Gerichtshofs ist der Ansicht, dass das Vorbringen von Amazon, die vom Unionsgesetzgeber eingeführte Pflicht, ein Werbearchiv öffentlich zugänglich zu machen, schränke ihre Grundrechte auf Achtung des Privatlebens und auf unternehmerische Freiheit rechtswidrig ein, dem ersten Anschein nach nicht als unerheblich und außerdem völlig haltlos angesehen werden kann.

Zudem würde Amazon, wenn keine Aussetzung erfolgt, vor einem eventuell ergehenden Urteil, mit dem der Beschluss der Kommission für nichtig erklärt wird, wahrscheinlich einen schwerwiegenden und nicht wiedergutzumachenden Schaden erleiden.

Diese Feststellungen sind jedoch für sich allein genommen nicht entscheidend. Es ist nämlich zu prüfen, ob die Abwägung sämtlicher beteiligter Interessen die Versagung der Aussetzung rechtfertigen kann. Hierzu stellt der Vizepräsident des Gerichtshofs fest, dass Amazon in dem Fall, dass die Aussetzung nicht gewährt wird, weiterhin ein Interesse an der Nichtigerklärung des Beschlusses der Kommission hätte. Außerdem ist nicht dargetan, dass in diesem Fall die Existenz oder die langfristige Entwicklung von Amazon auf dem Spiel stünden. Darüber hinaus würde die Aussetzung bedeuten, das vollständige Erreichen der Ziele der Verordnung über einen Binnenmarkt für digitale Dienste möglicherweise über mehrere Jahre hinauszuschieben und damit möglicherweise ein OnlineUmfeld bestehen oder sich entwickeln zu lassen, das eine Bedrohung für die Grundrechte darstellt; der Unionsgesetzgeber war aber der Auffassung, dass die sehr großen Online-Plattformen eine wichtige Rolle in diesem Umfeld spielen. Die vom Unionsgesetzgeber vertretenen Interessen gehen im vorliegenden Fall den materiellen Interessen von Amazon vor, weshalb die Abwägung zugunsten der Zurückweisung des Aussetzungsantrags ausfällt.


Den Volltext des Beschlusses finden Sie hier:

Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz beschlossen - Gesetz zur Umsetzung des Digital Services Acts - DSA -

Der Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz (Gesetz zur Umsetzung des Digital Services Acts - DSA) beschlossen.

Siehe dazu auch Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

EU-Kommission: Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern

Die EU-Kommission hat ein förmliches Verfahren gegen AliExpress nach dem Digital Services Act (DSA) u.a. wegen der Moderation von Inhalten, Transparenz von Werbung und Rückverfolgbarkeit von Händlern eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste ein

Die Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob AliExpress in Bereichen im Zusammenhang mit dem Management und der Minderung von Risiken, der Moderation von Inhalten und dem internen Beschwerdemanagementsystem, der Transparenz von Werbe- und Empfehlungssystemen, der Rückverfolgbarkeit von Händlern und dem Datenzugang für Forscher möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich der Analyse des von AliExpress im August 2023 übermittelten Risikobewertungsberichts, der in seinem Transparenzbericht veröffentlichten Informationen und ihrer Antworten auf die förmlichen Auskunftsersuchen der Kommission (vom 6. November 2023 und 18. Januar 2024), hat die Kommission beschlossen, ein förmliches Verfahren gegen AliExpress nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

- Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste in Bezug auf die Bewertung und Minderung der systemischen Risiken der Verbreitung illegaler Inhalte sowie tatsächliche oder vorhersehbare negative Auswirkungen auf den Verbraucherschutz, insbesondere im Zusammenhang mit
- Die mangelnde Durchsetzung von AliExpress-Dienstleistungsbedingungen, die bestimmte Produkte verbieten, die eine
Gefahr für die Gesundheit der Verbraucher darstellen (z. B. gefälschte Arzneimittel und Lebensmittel sowie
Nahrungsergänzungsmittel) und speziell für Minderjährige (Zugang zu pornografischem Material), die die Verbraucher noch
auf der Plattform finden können;
- Das Fehlen wirksamer Maßnahmen zur Verhinderung der Verbreitung illegaler Inhalte;
- Das Fehlen wirksamer Maßnahmen, um vorsätzliche Manipulationen auf der Online-Plattform durch sogenannte „versteckte
Links“ zu verhindern;
- Das Fehlen wirksamer Maßnahmen zur Vermeidung von Risiken aufgrund von Merkmalen wie Influencern, die illegale oder
schädliche Produkte im Rahmen des „verbundenen Programms“ von AliExpress fördern.

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, allen Nutzern, einschließlich derjenigen, die nicht registriert sind, zu ermöglichen, illegale Inhalte zu melden und eine Bestätigung des Eingangs der Meldung zu erhalten;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein wirksames internes Beschwerdemanagementsystem bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, die Zuverlässigkeit und Vollständigkeit der von Wirtschaftsbeteiligten, die AliExpress verwenden, angeforderten Informationen zu sammeln und zu bewerten, auch in Bezug auf Händler im Rahmen des „AliExpress Affiliate Program“, im Einklang mit der Rückverfolgbarkeit der Bestimmungen der Händler;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, für Transparenz in Bezug auf die wichtigsten Parameter zu sorgen, die in den Empfehlungssystemen von AliExpress verwendet werden, und mindestens eine Option eines Empfehlungssystems anzubieten, das nicht auf Profiling beruht;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf AliExpress bereitzustellen;

- Die Einhaltung der Verpflichtung des Gesetzes über digitale Dienste, Forschern gemäß Artikel 40 des Gesetzes über digitale Dienste Zugang zu öffentlich zugänglichen Daten von AliExpress zu gewähren.

Sollten diese Verstöße nachgewiesen werden, würden diese Verstöße einen Verstoß gegen die Artikel 16, 20, 26, 27, 30, 34, 35, 38, 39 und 40 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen zu ergreifen, z. B. einstweilige Maßnahmen zur Beendigung oder Behebung eines Verstoßes gegen Artikel 28 Absatz 1 und Beschlüsse wegen Nichteinhaltung. Die Kommission ist ferner befugt, von AliExpress eingegangene Verpflichtungszusagen anzunehmen, um Abhilfe in dem von dem Verfahren betroffenen Sachverhalt zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen die Artikel 16, 20, 26, 27 und 30 zu überwachen und durchzusetzen.

Die Einleitung eines förmlichen Verfahrens greift weder dem Ergebnis noch anderen Verfahren vor, die die Kommission nach anderen Artikeln des Gesetzes über digitale Dienste einleiten kann. Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die andere Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergreifen.

Hintergrund
AliExpress wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 104,3 Millionen monatlich aktive Nutzer in der EU gibt. Als VLOP musste AliExpress vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von Verpflichtungen aus dem Gesetz über digitale Dienste beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


EU-Kommission: Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen der Bereiche Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung

Die EU-Kommission hat ein förmliches Verfahren gegen TikTok / Bytedance nach dem Digital Services Act (DSA) u.a. wegen möglicher Mängel in den Bereichen Jugendschutz, suchterzeugende Gestaltung und Kennzeichnung von Werbung eingeleitet.

Die Pressemitteilung der EU-Kommission:
Kommission leitet förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste ein

Die Europäische Kommission hat ein förmliches Verfahren eingeleitet, um zu prüfen, ob TikTok in Bereichen im Zusammenhang mit dem Jugendschutz, der Transparenz der Werbung, dem Datenzugang für Forscher sowie dem Risikomanagement in Bezug auf suchterzeugende Gestaltung und schädliche Inhalte möglicherweise gegen das Gesetz über digitale Dienste verstoßen hat.

Auf der Grundlage der bisher durchgeführten vorläufigen Untersuchung, einschließlich einer Analyse des von TikTok im September 2023 übermittelten Risikobewertungsberichts sowie der Antworten von TikTok auf die förmlichen Auskunftsverlangen der Kommission (zu illegalen Inhalten, zum Schutz Minderjähriger und zum Datenzugang), hat die Kommission beschlossen,ein förmliches Verfahren gegen TikTok nach dem Gesetz über digitale Dienste einzuleiten.

Die Beratungen werden sich auf folgende Bereiche konzentrieren:

Die Einhaltung der Verpflichtungen im Rahmen des Gesetzes über digitale Dienste im Zusammenhang mit der Bewertung und Minderung systemischer Risiken in Bezug auf tatsächliche oder vorhersehbare negative Auswirkungen, die sich aus der Gestaltung des TikTok-Systems, einschließlich algorithmischer Systeme, ergeben und die Verhaltensabhängigkeit stimulieren und/oder sogenannte „Kabbit-Locheffekte“ hervorrufen können. Eine solche Bewertung ist erforderlich, um potenziellen Risiken für die Ausübung des Grundrechts auf das körperliche und geistige Wohlbefinden der Person, die Achtung der Rechte des Kindes sowie dessen Auswirkungen auf Radikalisierungsprozesse entgegenzuwirken. Darüber hinaus sind die diesbezüglich bestehenden Risikominderungsmaßnahmen, insbesondere die von TikTok verwendeten Instrumente zur Altersüberprüfung, um den Zugang Minderjähriger zu unangemessenen Inhalten zu verhindern, möglicherweise nicht angemessen, verhältnismäßig und wirksam;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um ein hohes Maß an Privatsphäre und Sicherheit für Minderjährige zu gewährleisten, insbesondere in Bezug auf Standardeinstellungen zum Schutz der Privatsphäre Minderjähriger im Rahmen der Gestaltung und Funktionsweise ihrer Empfehlungssysteme;
Die Einhaltung der Verpflichtungen des Gesetzes über digitale Dienste, ein durchsuchbares und zuverlässiges Archiv für Werbung auf TikTok bereitzustellen;
Die von TikTok ergriffenen Maßnahmen zur Erhöhung der Transparenz seiner Plattform. Die Untersuchung betrifft mutmaßliche Mängel beim Zugang von Forschern zu öffentlich zugänglichen Daten von TikTok gemäß Artikel 40 des Gesetzes über digitale Dienste.
Im Falle des Nachweises würden diese Versäumnisse einen Verstoß gegen Artikel 34 Absatz 1, Artikel 34 Absatz 2, Artikel 35 Absatz 1, Artikel 28 Absatz 1, Artikel 39 Absatz 1 und Artikel 40 Absatz 12 des Gesetzes über digitale Dienste darstellen. Die Kommission wird nun vorrangig eine eingehende Prüfung durchführen. Die Eröffnung eines förmlichen Verfahrens greift dem Ergebnis nicht vor.

Die vorliegende Einleitung des Verfahrens lässt andere Verfahren unberührt, die die Kommission in Bezug auf andere Verhaltensweisen einleiten kann, die einen Verstoß nach dem Gesetz über digitale Dienste darstellen könnten, beispielsweise im Zusammenhang mit den Verpflichtungen eines Anbieters in Bezug auf die Verbreitung illegaler Inhalte wie terroristische Inhalte oder sexuellen Kindesmissbrauch im Internet oder die Meldung eines Verdachts auf Straftaten.

Dies gilt auch unbeschadet der Durchsetzungsmaßnahmen, die von anderen Behörden im Rahmen anderer Rechtsrahmen, z. B. des Netzwerks für die Zusammenarbeit im Verbraucherschutz, ergriffen werden.

Nächste Schritte
Nach der förmlichen Einleitung des Verfahrens wird die Kommission weiterhin Beweismittel sammeln, z. B. durch zusätzliche Auskunftsersuchen, Befragungen oder Inspektionen.

Mit der Einleitung eines förmlichen Verfahrens wird die Kommission ermächtigt, weitere Durchsetzungsmaßnahmen wie einstweilige Maßnahmen und Beschlüsse wegen Nichteinhaltung zu ergreifen. Die Kommission ist ferner befugt, alle Zusagen von TikTok anzunehmen, in den von dem Verfahren betroffenen Angelegenheiten Abhilfe zu schaffen.

Das Gesetz über digitale Dienste sieht keine gesetzliche Frist für die Beendigung eines förmlichen Verfahrens vor. Die Dauer einer eingehenden Untersuchung hängt von mehreren Faktoren ab, u. a. von der Komplexität des Falls, dem Umfang der Zusammenarbeit des betroffenen Unternehmens mit der Kommission und der Ausübung der Verteidigungsrechte.

Die Einleitung eines förmlichen Verfahrens entbindet die Koordinatoren für digitale Dienste oder jede andere zuständige Behörde der EU-Mitgliedstaaten von ihrer Befugnis, das Gesetz über digitale Dienste in Bezug auf mutmaßliche Verstöße gegen Artikel 28 Absatz 1 zu überwachen und durchzusetzen.

Hintergrund
TikTok wurde am 25. April 2023 gemäß dem EU-Gesetz über digitale Dienste als sehr große Online-Plattform (VLOP) benannt, nachdem es erklärt hatte, dass es 135,9 Millionen monatlich aktive Nutzer in der EU hat. Als VLOP musste TikTok vier Monate nach seiner Benennung mit der Erfüllung einer Reihe von im Gesetz über digitale Dienste festgelegten Verpflichtungen beginnen.

Seit dem 17. Februar gilt das Gesetz über digitale Dienste für alle Online-Vermittler in der EU.


Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts (DSA) - Stand 15.01.2024 vorgelegt.

Aus dem Entwurf:
Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze

A. Problem und Ziel

Am 16. November 2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „DSA“ [= Digital Services Act]). Der DSA gilt ab dem 17. Februar 2024. Mit dem DSA wird ein horizontaler Rechtsrahmen, also ein einheitlicher Rechtsrahmen für alle Kategorien digitaler Vermittlungsdienste, geschaffen.

Ziel des DSA ist es, für alle Mitgliedstaaten der Europäischen Union (EU) einheitliche horizontale Regeln festzulegen für ein sicheres und vertrauenswürdiges Online-Umfeld, in dem die in der EU-Grundrechtecharta verankerten Grundrechte, darunter der Verbraucherschutz, wirksam geschützt werden. Zudem soll eine starke und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über digitale Vermittlungsdienste in der EU sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der auch Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennimmt und Zugriff auf die Daten der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) erhält. Ergänzend regelt der DSA das Verhältnis der digitalen Vermittlungsdienste zu ihren Nutzerinnen und Nutzern neu. So müssen Hostingdiensteanbieter Melde- und Abhilfeverfahren für illegale Inhalte vorhalten. Zudem werden Hostingdiensteanbieter zu Maßnahmen gegen illegale Aktivitäten und Anbieter von Online-Plattformen zu Maßnahmen gegen eine mögliche missbräuchliche Verwendung der Melde- und Abhilfeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. OnlineMarktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten wollen, vorher überprüfen. Ferner sieht der DSA im Bereich kommerzieller Werbung Transparenzverpflichtungen sowie ein Verwendungsverbot bestimmter personenbezogener Daten vor sowie für sehr große Online-Plattformen bzw. sehr große Online-Suchmaschinen strengere Verpflichtungen als für kleine und mittlere Anbieter. Dies alles soll die Sicherheit des digitalen Umfelds fördern. Schließlich wird ein Rahmen für die Umsetzung, Zusammenarbeit, Sanktionierung und Durchsetzung des DSA festgelegt, der konkrete, an die Mitgliedstaaten gerichtete Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.

B. Lösung

Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetz) wird der nationale Rechtsrahmen an den Vorgaben des DSA ausgerichtet und entsprechend angepasst.

Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste entweder anzupassen oder aufzuheben.

Der Gesetzentwurf schafft vor allem einen Rechtsrahmen für die behördliche Überwachung der Einhaltung von DSA-Vorschriften durch Anbieter von Vermittlungsdiensten. Zu diesem Zweck wird insbesondere eine zentrale Stelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und für die Durchsetzung des DSA benannt: Die Koordinierungsstelle für digitale Dienste wird innerhalb der zuständigen Bundesnetzagentur eingerichtet, um eine wirksame und zugleich unabhängige Aufsicht über digitale Vermittlungsdienste zu gewährleisten. Der vorliegende Entwurf regelt auch Organisation und Funktion der Koordinierungsstelle für digitale Dienste. Ergänzend werden Sonderzuständigkeiten für die Bundeszentrale für Kinder- und Jugendmedienschutz, für nach den medienrechtlichen Bestimmungen der Länder benannte Stellen und für den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit geschaffen. Zudem werden – wo nicht bereits durch den DSA geregelt – Befugnisse der vorgenannten Stellen festgelegt. Der Gesetzentwurf regelt ebenfalls die Zusammenarbeit der jeweils zuständigen Stellen mit weiteren Behörden, deren Zuständigkeit im Einzelfall berührt werden kann. Der vom DSA vorgegebene Spielraum für Sanktionen bei Verstößen gegen den DSA wird durch diesen Gesetzentwurf ausgeschöpft. Ergänzend werden erforderliche Gesetzesänderungen vorgenommen, um nationales Recht an die Terminologie des DSA anzupassen.


Den vollständigen Entwurf finden Sie hier:


EU-Kommission: Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet

Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.

Die Pressemitteilung des EU-Kommission:
The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.

On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.

The proceedings will focus on the following areas:

The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.

The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.

The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.

A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.

If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.

These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.

Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.

The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.

The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.

The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).

Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.

As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:

Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.

Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.

Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data
.



EuG-Präsident: Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt

EuG-Präsident
Anordnung vom 27.09.2023
T‑367/23 R
Amazon Services Europe Sàrl ./. EU-Kommission


Der EuG-Präsident hat angeordnet, dass die Rechtsfolgen der Einordnung von Amazon Store als sehr großer Online-Dienst im Sinne des Digital Services Acts teilweise vorläufig außer Kraft gesetzt wird. Über die Rechtsmäßigkeit der Einordnung muss der EuG noch entscheiden.

Tenor der Entscheidung:
1. Operation of the decision of the European Commission of 25 April 2023, with reference C(2023) 2746 final, designating Amazon Store as a very large online platform in accordance with Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act), is suspended in so far as, by virtue of that decision, Amazon Store will be required to make an advertisement repository publicly available, in accordance with Article 39 of that regulation, without prejudice to the requirement for the applicant to compile the advertisement repository.

2. The application for interim measures is dismissed as to the remainder.

3. The costs are reserved.

Den Volltext der Entscheidung finden Sie hier:


EU-Kommission: Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.

Die Pressemitteilung der EU-Kommission vom 25.04.2023:

Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:

Sehr große Online-Plattformen:

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:

Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.

Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:

Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.

Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:

Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.

Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:

Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.

Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.

Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.

Ein höheres Maß an Transparenz und Rechenschaftspflicht:

Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.

Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.

Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.

Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.

Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.