Skip to content

EU-Kommission: Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet

Die EU-Kommission hat ein Verfahren gegen X / Twitter wegen Verletzung der Vorschriften des Digital Services Act (DSA) durch Verbreitung illegaler Inhalte eröffnet.

Die Pressemitteilung des EU-Kommission:
The European Commission has opened formal proceedings to assess whether X may have breached the Digital Services Act (DSA) in areas linked to risk management, content moderation, dark patterns, advertising transparency and data access for researchers.

On the basis of the preliminary investigation conducted so far, including on the basis of an analysis of the risk assessment report submitted by X in September, X's Transparency report published on 3 November, and X's replies to a formal request for information, which, among others, concerned the dissemination of illegal content in the context of Hamas' terrorist attacks against Israel, the Commission has decided to open formal infringement proceedings against X under the Digital Services Act.

The proceedings will focus on the following areas:

The compliance with the DSA obligations related to countering the dissemination of illegal content in the EU, notably in relation to the risk assessment and mitigation measures adopted by X to counter the dissemination of illegal content in the EU, as well as the functioning of the notice and action mechanism for illegal content in the EU mandated by the DSA, including in light of X's content moderation resources.

The effectiveness of measures taken to combat information manipulation on the platform, notably the effectiveness of X's so-called ‘Community Notes' system in the EU and the effectiveness of related policies mitigating risks to civic discourse and electoral processes.

The measures taken by X to increase the transparency of its platform. The investigation concerns suspected shortcomings in giving researchers access to X's publicly accessible data as mandated by
Article 40 of the DSA, as well as shortcomings in X's ads repository.

A suspected deceptive design of the user interface, notably in relation to checkmarks linked to certain subscription products, the so-called Blue checks.

If proven, these failures would constitute infringements of Articles 34(1), 34(2) and 35(1), 16(5) and 16(6), 25(1), 39 and 40(12) of the DSA. The Commission will now carry out an in-depth investigation as a matter of priority. The opening of formal infringement proceedings does not prejudge its outcome.

These are the first formal proceedings launched by the Commission to enforce the first EU-wide horizontal framework for online platforms' responsibility, just 3 years from its proposal.

Next Steps
After the formal opening of proceedings, the Commission will continue to gather evidence, for example by sending additional requests for information, conducting interviews or inspections.

The opening of formal proceedings empowers the Commission to take further enforcement steps, such as interim measures, and non-compliance decisions. The Commission is also empowered to accept any commitment made by X to remedy on the matters subject to the proceeding.

The DSA does not set any legal deadline for bringing formal proceedings to an end. The duration of an in-depth investigation depends on a number of factors, including the complexity of the case, the extent to which the company concerned cooperate with the Commission and the exercise of the rights of defence.

The opening of formal infringement proceedings does not prejudge its outcome. It relieves Digital Services Coordinators, or any other competent authority of EU Member States, of their powers to supervise and enforce the DSA in relation to the suspected infringements of Articles 16(5), 16(6) and 25(1).

Background
X (formerly known as Twitter) has been designated as a Very Large Online Platform (VLOP) on 25 April 2023 under the EU's Digital Services Act, following its declaration of having 112 million monthly active users in the EU as reported to the Commission on 17 February 2023.

As a VLOP, since four months from its designation, X has had to comply with a series of obligations set out in the DSA. In particular:

Pursuant to Articles 34(1), 34(2) and 35(1), VLOPs are obliged to diligently identify, analyse, and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, or from the use made of their services. When conducting risk assessments, VLOPs shall take into account a number of factors that influence the systemic risks, including recommender systems, advertising systems or the intentional manipulation of the service, including through inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. VLOPs are obliged to put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified.
Pursuant to Articles 16(5) and 16(6), online platforms have to notify without undue delay individuals or entities of content moderation decision, providing information on the possibilities for redress in respect of that decision; platforms shall take such decisions in a timely, diligent, non-arbitrary and objective manner.

Pursuant to Article 25(1), online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates their users or in a way that otherwise materially distorts or impairs the ability of the users of their service to make free and informed decisions.
Pursuant to Article 39, VLOPs have to compile and make publicly available through a searchable and reliable tool a repository containing advertisements on their platforms, until one year after the advertisement was presented for the last time, in a way that the information is accurate and complete.

Pursuant to Article 40(12), VLOPs have to provide researchers with effective access to platform data
.



BfJ: Bußgeldverfahren nach dem NetzDG gegen Twitter wegen systemischen Versagens des Beschwerdemanagements beim Umgang mit Nutzerbeschwerden wegen rechtswidriger Inhalte

Das BfH hat ein Bußgeldverfahren nach dem NetzDG gegen Twitter wegen systemischen Versagens des Beschwerdemanagements beim Umgang mit Nutzerbeschwerden wegen rechtswidriger Inhalte

Die Pressemitteilung des BfJ:
Bundesamt für Justiz führt Bußgeldverfahren gegen die Twitter International Unlimited Company wegen unzureichenden Umgangs mit Nutzerbeschwerden

Das Bundesamt für Justiz (BfJ) hat ein Bußgeldverfahren nach dem Netzwerkdurchsetzungsgesetz (NetzDG) gegen die Twitter International Unlimited Company eingeleitet. Aus Sicht des BfJ liegen hinreichende Anhaltspunkte für Versäumnisse im Beschwerdemanagement der Anbieterin von Twitter in Deutschland vor.

Die Anbieterin von Twitter unterliegt den Vorschriften des NetzDG. Dem BfJ liegen hinreichende Anhaltspunkte dafür vor, dass sie gegen die gesetzliche Pflicht zum Umgang mit Beschwerden über rechtswidrige Inhalte verstoßen hat und es sich dabei um ein bußgeldbewehrtes systemisches Versagen im Beschwerdemanagement der Anbieterin handelt.

Fehlerhafter Umgang mit Nutzerbeschwerden
Die Anbieterin von Twitter ist nach dem NetzDG verpflichtet, ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden von Nutzerinnen und Nutzern über rechtswidrige Inhalte vorzuhalten. Sie muss unter anderem unverzüglich von einem gemeldeten Inhalt Kenntnis nehmen, prüfen, ob dieser rechtswidrig im Sinne des NetzDG ist, und einen rechtswidrigen Inhalt, unter Beachtung der gesetzlichen Frist von regelmäßig sieben Tagen bzw. 24 Stunden im Falle offensichtlicher Rechtswidrigkeit, löschen oder den Zugang zu ihm sperren. Ein Inhalt gilt nach dem NetzDG als rechtwidrig, wenn er einen der in § 1 Absatz 3 NetzDG aufgeführten Tatbestände des Strafgesetzbuchs, wie beispielsweise Volksverhetzung, Beleidigung oder Bedrohung, erfüllt.

Dem BfJ wurden zahlreiche Inhalte gemeldet, die auf Twitter veröffentlicht wurden, nach Einschätzung der Behörde rechtswidrig sind und trotz Nutzerbeschwerden nicht innerhalb der gesetzlich vorgesehenen Fristen von der Anbieterin gelöscht oder gesperrt wurden. Hierauf gründet das eingeleitete Bußgeldverfahren.

Systemisches Versagen des Beschwerdemanagements
Bei vereinzelten Verstößen von Anbieterinnen und Anbietern sozialer Netzwerke gegen die Prüf- und Löschpflichten des NetzDG kann in der Regel noch nicht angenommen werden, dass kein wirksames Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte vorgehalten wird. Bußgeldbewehrt ist aber ein systemisches Versagen des Beschwerdemanagements, das vorliegt, wenn Verfehlungen gegen die einschlägigen Vorgaben des NetzDG zeit- und sachnah wiederholt auftreten.

Die dem Bußgeldverfahren gegen die Anbieterin von Twitter zugrundeliegenden Inhalte weisen einen engen zeitlichen und sachlichen Zusammenhang auf und sind daher geeignet, ein systemisches Versagen im Beschwerdemanagement der Anbieterin zu begründen. Sie wurden in einem Zeitraum von rund vier Monaten auf Twitter veröffentlicht und der Anbieterin von Twitter von Nutzerinnen und Nutzern als rechtswidrig angezeigt. Alle Inhalte enthalten ähnlich gelagerte, nicht gerechtfertigte, ehrverletzende Meinungsäußerungen, die sich sämtlich gegen dieselbe Person richten. Sie erfüllen nach Einschätzung des BfJ den Tatbestand der Beleidigung.

Anhörung der Anbieterin und Vorabentscheidungsverfahren vor dem Amtsgericht Bonn
Das BfJ hat der Anbieterin von Twitter nunmehr zu dem Vorwurf eines systemischen Versagens des Beschwerdemanagements Gelegenheit zur Stellungnahme gegeben.

Im weiteren Verfahren wird das BfJ die in der Stellungnahme vorgebrachten Argumente prüfen. Sollte das BfJ zum Ergebnis kommen, dass der Vorwurf des rechtswidrigen Verhaltens weiterhin berechtigt ist, wird das BfJ beim Amtsgericht Bonn die Einleitung eines Vorabentscheidungsverfahrens beantragen und zugleich die Stellungnahme der Anbieterin vorlegen.

Vor dem Erlass eines Bußgeldbescheids gegen Anbieter sozialer Netzwerke wegen fehlerhafter Nichtlöschung oder Nichtsperrung rechtswidriger Inhalte soll nach § 4 Absatz 5 NetzDG die gerichtliche Feststellung der Rechtswidrigkeit der Inhalte herbeigeführt werden. Zuständig für dieses sogenannte Vorabentscheidungsverfahren ist das Amtsgericht Bonn.

Sollte das Amtsgericht Bonn die Rechtswidrigkeit der Inhalte feststellen, kann das BfJ eine Geldbuße gegen die Anbieterin von Twitter festsetzen.



LG Frankfurt: Twitter muss wie Facebook bei ehrverletzenden Inhalten auch kerngleiche Tweets und Memes ohne erneute Inkenntnissetzung automatisch löschen

LG Frankfurt
Urteil vom 14.12.2022
2-03 O 325/22

Das LG Frankfurt hat wie erwartet entschieden, dass Twitter wie Facebook bei ehrverletzenden Inhalten auch kerngleiche Tweets und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.

Die Pressemitteilung des Gerichts:
Persönlichkeitsrecht - Ehrverletzung durch herabwürdigenden Tweet

Twitter muss bei einem konkreten Hinweis auf eine Persönlichkeitsrechtsverletzung auch kerngleiche Äußerungen entfernen.

Das Landgericht Frankfurt am Main hat heute entschieden: Betroffene können von Twitter verlangen, dass falsche oder ehrverletzende Tweets über sie gelöscht werden. Auch sinngemäße Kommentare mit identischem Äußerungskern muss Twitter entfernen, sobald es von der konkreten Persönlichkeitsrechtsverletzung Kenntnis erlangt.

Im September 2022 erschienen auf Twitter diverse Kommentare, in denen wahrheitswidrig behauptet wurde, der Antisemitismusbeauftragte des Landes Baden-Württemberg habe „eine Nähe zur Pädophilie“ und er habe „einen Seitensprung gemacht“. Außerdem wurde über ihn verbreitet, er sei in „antisemitische Skandale“ verstrickt und er sei „Teil eines antisemitischen Packs“.

Die zuständige Pressekammer des Landgerichts Frankfurt am Main stellte in einem Eilverfahren fest, dass diese ehrenrührigen Behauptungen unwahr sind. Die Bezeichnung als Antisemit sei zwar zunächst eine Meinungsäußerung. Sie sei aber jedenfalls in dem gewählten Kontext rechtswidrig, denn sie trage nicht zur öffentlichen Meinungsbildung bei und ziele erkennbar darauf ab, in emotionalisierender Form Stimmung gegen den Antisemitismusbeauftragten zu machen.

Nachdem der Antisemitismusbeauftragte die Entfernung dieser Kommentare verlangt hat, hätte Twitter ihre Verbreitung unverzüglich unterlassen und einstellen müssen. Darüber hinaus entschied die Kammer: „Das Unterlassungsgebot greift nicht nur dann, wenn eine Äußerung wortgleich wiederholt wird, sondern auch, wenn die darin enthaltenen Mitteilungen sinngemäß erneut veröffentlicht werden.“ Unter weiter: „Die Äußerungen werden nicht in jeglichem Kontext untersagt. Betroffen sind nur solche Kommentare, die als gleichwertig anzusehen sind und die trotz gewisser Abweichungen einen identischen Äußerungskern aufweisen.“

Twitter werde damit auch keine allgemeine Monitoring-Pflicht im Hinblick auf seine rund 237 Mio. Nutzer auferlegt. Eine Prüfpflicht bestehe nämlich nur hinsichtlich der konkret beanstandeten Persönlichkeitsrechtsverletzung. „Das deutsche Recht mutet jedem Verpflichteten eines Unterlassungsgebots zu, selbst festzustellen, ob in einer Abwandlung das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt und damit kerngleich ist. Twitter befindet sich damit in keiner anderen Situation, als wenn eine bestimmte Rechtsverletzung gemeldet wird. Auch in diesem Fall muss Twitter prüfen, ob diese Rechtsverletzung eine Löschung bedingt oder nicht“, so die Vorsitzende in der Urteilsbegründung.

Als zulässig erachtete die Kammer indes die Äußerung eines Nutzers, wonach der Antisemitismusbeauftragte des Landes Baden-Württemberg in die jährlich vom Wiesenthal-Zentrum in Los Angeles veröffentlichte Liste der größten Antisemiten weltweit aufgenommen worden ist. Unabhängig davon, ob die Aufnahme in diese Liste gerechtfertigt sei, dürfe darüber informiert werden. Dagegen müsse sich der Antisemitismusbeauftragte im öffentlichen Meinungskampf zur Wehr setzen.

Das Urteil (Az. 2-03 O 325/22) ist nicht rechtskräftig. Es kann mit der Berufung zum Oberlandesgericht Frankfurt am Main angefochten werden. Die Entscheidung wird in Kürze unter www.lareda.hessenrecht.hessen.de abrufbar sein.

Ergänzender Hinweis:
Dieselbe Pressekammer des Landgerichts Frankfurt am Main hatte mit Urteil vom 8.4.2022 (Az.: 2-03 O 188/21) entschieden, dass in einer Wort-Bild-Kombination (sog. „Meme“) unterge-schobene Falschzitate auf Facebook auch ohne erneuten Hinweis gelöscht werden müssen, wenn sie einen kerngleichen Inhalt aufweisen. Geklagt hatte dort MdB Renate Künast.