Skip to content

EU-Kommission: Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet

Die EU-Kommission hat Verfahren nach dem Digital Markets Act (DMA) wegen möglicher Verstöße gegen Alphabet / Google, Apple and Meta eingeleitet.

Die Pressemitteilung der EU-Kommission:
Commission opens non-compliance investigations against Alphabet, Apple and Meta under the Digital Markets Act

Today, the Commission has opened non-compliance investigations under the Digital Markets Act (DMA) into Alphabet's rules on steering in Google Play and self-preferencing on Google Search, Apple's rules on steering in the App Store and the choice screen for Safari and Meta's “pay or consent model”.

The Commission suspects that the measures put in place by these gatekeepers fall short of effective compliance of their obligations under the DMA.

In addition, the Commission has launched investigatory steps relating to Apple's new fee structure for alternative app stores and Amazon's ranking practices on its marketplace. Finally, the Commission has ordered gatekeepers to retain certain documents to monitor the effective implementation and compliance with their obligations.

Alphabet's and Apple's steering rules

The Commission has opened proceedings to assess whether the measures implemented by Alphabet and Apple in relation to their obligations pertaining to app stores are in breach of the DMA. Article 5(4) of the DMA requires gatekeepers to allow app developers to “steer” consumers to offers outside the gatekeepers' app stores, free of charge.

The Commission is concerned that Alphabet's and Apple's measures may not be fully compliant as they impose various restrictions and limitations. These constrain, among other things, developers' ability to freely communicate and promote offers and directly conclude contracts, including by imposing various charges.

Alphabet's measures to prevent self-preferencing

The Commission has opened proceedings against Alphabet, to determine whether Alphabet's display of Google search results may lead to self-preferencing in relation to Google's vertical search services (e.g., Google Shopping; Google Flights; Google Hotels) over similar rival services.

The Commission is concerned that Alphabet's measures implemented to comply with the DMA may not ensure that third-party services featuring on Google's search results page are treated in a fair and non-discriminatory manner in comparison with Alphabet's own services, as required by Article 6(5) of the DMA.

Apple's compliance with user choice obligations

The Commission has opened proceedings against Apple regarding their measures to comply with obligations to (i) enable end users to easily uninstall any software applications on iOS, (ii) easily change default settings on iOS and (iii) prompt users with choice screens which must effectively and easily allow them to select an alternative default service, such as a browser or search engine on their iPhones.

The Commission is concerned that Apple's measures, including the design of the web browser choice screen, may be preventing users from truly exercising their choice of services within the Apple ecosystem, in contravention of Article 6(3) of the DMA.

Meta's “pay or consent” model

Finally, the Commission has opened proceedings against Meta to investigate whether the recently introduced “pay or consent” model for users in the EU complies with Article 5(2) of the DMA which requires gatekeepers to obtain consent from users when they intend to combine or cross-use their personal data across different core platform services.

The Commission is concerned that the binary choice imposed by Meta's “pay or consent” model may not provide a real alternative in case users do not consent, thereby not achieving the objective of preventing the accumulation of personal data by gatekeepers.

Other investigatory and enforcement steps

The Commission is also taking other investigatory steps to gather facts and information to clarify whether:

Amazon may be preferencing its own brand products on the Amazon Store in contravention of Article 6(5) of the DMA, and
Apple's new fee structure and other terms and conditions for alternative app stores and distribution of apps from the web (sideloading) may be defeating the purpose of its obligations under Article 6(4) of the DMA.
The Commission has also adopted five retention orders addressed to Alphabet, Amazon, Apple, Meta, and Microsoft, asking them to retain documents which might be used to assess their compliance with the DMA obligations, so as to preserve available evidence and ensure effective enforcement.

Finally, the Commission has granted Meta an extension of 6 months to comply with the interoperability obligation (Article 7 DMA) for Facebook Messenger. The decision is based on a specific provision in Article 7(3)DMA and follows a reasoned request submitted by Meta. Facebook Messenger remains subject to all other DMA obligations.

Next steps

The Commission intends to conclude the proceedings opened today within 12 months. If warranted following the investigation, the Commission will inform the concerned gatekeepers of its preliminary findings and explain the measures it is considering taking or the gatekeeper should take in order to effectively address the Commission's concerns.

In case of an infringement, the Commission can impose fines up to 10% of the company's total worldwide turnover. Such fines can go up to 20% in case of repeated infringement. Moreover, in case of systematic infringements, the Commission may also adopt additional remedies such as obliging a gatekeeper to sell a business or parts of it, or banning the gatekeeper from acquisitions of additional services related to the systemic non-compliance.

Background

The DMA aims to ensure contestable and fair markets in the digital sector. It regulates gatekeepers, which are large digital platforms that provide an important gateway between business users and consumers, whose position can grant them the power to create a bottleneck in the digital economy.

Alphabet, Amazon, Apple, ByteDance, Meta and Microsoft, the six gatekeepers designated by the Commission in September 2023, had to fully comply with all DMA obligations by 7 March 2024. The Commission has assessed the compliance reports setting out gatekeepers' compliance measures, and gathered feedback from stakeholders, including in the context of workshops.

Today's formal non-compliance proceedings against Alphabet, Apple and Meta have been opened pursuant to Article 20 DMA in conjunction with Articles 13 and 29 DMA for breach of Articles 5(2), 5(4), 6(3) and 6(5) DMA respectively.



Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz beschlossen - Gesetz zur Umsetzung des Digital Services Acts - DSA -

Der Bundestag hat am 21.03.2024 das Digitale-Dienste-Gesetz (Gesetz zur Umsetzung des Digital Services Acts - DSA) beschlossen.

Siehe dazu auch Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

OLG Düsseldorf: Bestellbutton von Meta für kostenpflichtiges Facebook bzw. Instagram-Abo mit "Abonnieren" bzw. "Weiter zur Zahlung" genügt nicht den Vorgaben der Button-Lösung

OLG Düsseldorf
Urteil vom 08.02.2024
I-20 UKlaG 4/23


Das OLG Düsseldorf hat entschieden, dass der Bestellbutton von Meta für das kostenpflichtige Facebook bzw. Instagram-Abo mit der Beschriftung "Abonnieren" bzw. "Weiter zur Zahlung" nicht den Vorgaben der Button-Lösung nach 312j Abs. 3 BGB genügt.

20. Zivilsenat verkündet Urteil zu Bestellbuttons bei Facebook und Instagram

Der 20. Zivilsenat des Oberlandesgerichts Düsseldorf unter Leitung des Vorsitzenden Richters am Oberlandesgericht Erfried Schüttpelz hat heute im einstweiligen Verfügungsverfahren einer Unterlassungsklage der Verbraucherzentrale Nordrhein-Westfalen e.V. („Verbraucherzentrale“) teilweise stattgegeben und der Meta Platforms Ireland Limited („Meta“) untersagt, den Bestellprozess der von ihr angebotenen kostenpflichtigen werbefreien Nutzung der sozialen Netzwerke „Facebook“ und „Instagram“ durch Auslösen einer Schaltfläche (Bestellbutton) zu gestalten, ohne dass sich auf dieser ein eindeutiger Hinweis auf eine zahlungspflichtige Bestellung befindet (Aktenzeichen: I-20 UKlaG 4/23).

Meta bietet Kunden die Nutzung der sozialen Netzwerke „Facebook“ sowie „Instagram“ unter anderem über die von ihr betriebene Webseite www.facebook.com oder als App auf elektronischen Endgeräten an. Die Nutzung erfolgte bislang kostenfrei; allerdings hatte sich Meta in Allgemeinen Geschäftsbedingungen die Zusendung personalisierter Werbung ausbedungen. Seit November 2023 besteht neben der kostenlosen Nutzung mit Werbung die Option einer kostenpflichtigen werbefreien Nutzung der sozialen Dienste. Diese buchen Nutzer auf der Webseite mit dem Bestellbutton „Abonnieren“ und in den Apps auf den Betriebssystemen iOS und Android über den Bestellbutton „Weiter zur Zahlung“. Die Verbraucherzentrale sieht hierin einen Verstoß gegen das Verbraucherschutzrecht, da die Bestellbuttons nicht hinreichend darauf hinwiesen, dass bei ihrer Bestätigung ein kostenpflichtiger Abonnementvertrag abgeschlossen werde. Nach erfolgloser vorgerichtlicher Abmahnung beantragt die Verbraucherzentrale im einstweiligen Verfügungsverfahren u.a. die Untersagung des so gestalteten Bestellprozesses.

Der 20. Zivilsenat hat dem Antrag heute stattgegeben und ausgeführt, Unternehmer seien gesetzlich verpflichtet, Bestellbuttons, also Schaltflächen, über die im elektronischen Rechtsverkehr ein Vertrag mit einem Verbraucher zustande komme, mit eindeutigen Formulierungen wie „zahlungspflichtig bestellen“ zu kennzeichnen. Dem werde der Bestellbutton „Abonnieren“ nicht gerecht, weil es auch kostenlose Abonnements gebe. Dass im Rahmen des Bestellvorgangs vorher und währenddessen eindeutig auf die Kostenpflichtigkeit des Abonnements hingewiesen werde, sei unerheblich. Allein der Text auf der Schaltfläche sei maßgeblich.

Auch der Bestellbutton in den Apps „Weiter zur Zahlung“ genüge den gesetzlichen Verbraucherschutzvorgaben nicht. Zwar fehle hier nicht ein Hinweis auf die Kostenpflichtigkeit. Für den Verbraucher sei aber nicht erkennbar, dass er bereits durch Betätigung dieses Buttons einen Vertrag abschließe und nicht lediglich auf eine weitere Seite zur Angabe seiner Daten und zu einem verbindlichen Vertragsabschluss weitergeleitet werde.

Soweit die Verbraucherzentrale erst in der mündlichen Verhandlung noch beanstandet hat, dass die für eine Kündigung notwendigen Schaltflächen und Webseiten für den Verbraucher erst dann zugänglich seien, wenn er sich angemeldet habe, fehle es bereits an der für den Erlass der einstweiligen Verfügung erforderlichen Eilbedürftigkeit. Der Verbraucherzentrale sei spätestens seit dem 23. November 2023 bekannt gewesen, dass sich die fraglichen Buttons und Webseiten jedenfalls nicht auf der allgemein zugänglichen Webseite befinden. Dies hätte sie von vornherein zum Gegenstand ihres Antrags machen können.

Das Urteil ist rechtskräftig.



Präsiden des EuG lehnt Eilantrag von TikTok / Bytedance gegen Einordnung als Gatekeeper im Sinn des Digital Markets Act (DMA) durch EU-Kommission ab

Präsiden des EuG
Beschluss vom 09.20.2024
T-1077/23
Bytedance / EU-Kommission

Der Präsident des EuG hat den Eilantrag von TikTok / Bytedance gegen die Einordnung als Gatekeeper im Sinn des Digital Markets Act (DMA) durch die EU-Kommission abgelehnt.

Die Pressemitteilung des Gerichts:
Verordnung über digitale Märkte: Der Antrag von ByteDance (TikTok) auf Aussetzung des Beschlusses der Kommission, mit dem ByteDance als Torwächter benannt wird, wird zurückgewiesen

ByteDance hat die Dringlichkeit einer vorläufigen Entscheidung zur Verhinderung eines schweren und nicht wiedergutzumachenden Schadens nicht dargetan.

Die ByteDance Ltd ist eine 2012 in China gegründete nicht operative Holdinggesellschaft, die über lokale Tochtergesellschaften die Unterhaltungsplattform TikTok bereitstellt.

Mit Beschluss vom 5. September 2023 benannte die Kommission ByteDance als Torwächter gemäß der Verordnung über digitale Märkte.

Im November 2023 erhob ByteDance Klage auf Nichtigerklärung dieses Beschlusses. Mit gesondertem Schriftsatz hat sie einen Antrag auf vorläufigen Rechtsschutz gestellt, mit dem sie die Aussetzung des Kommissionsbeschlusses begehrt. Mit seinem heutigen Beschluss weist der Präsident des Gerichts den Antrag von ByteDance auf vorläufigen Rechtsschutz zurück.

ByteDance hat danach nicht dargetan, dass es erforderlich wäre, den streitigen Beschluss bis zum Abschluss des Verfahrens zur Hauptsache auszusetzen, um zu verhindern, dass sie einen schweren und nicht wiedergutzumachenden Schaden erleidet.

ByteDance machte u. a. geltend, dass bei sofortiger Durchführung des streitigen Beschlusses die Gefahr bestehe, dass sonst nicht öffentliche, hochstrategische Informationen über die Praktiken von TikTok bei der Erstellung von Nutzerprofilen verbreitet würden. Diese Informationen würden es, so ByteDance, den Wettbewerbern von TikTok und sonstigen Dritten ermöglichen, über die TikTok betreffenden Geschäftsstrategien in einer Weise informiert zu sein, die ihren Tätigkeiten erheblich abträglich wäre. Ausweislich des heutigen Beschlusses hat ByteDance jedoch weder das Bestehen einer tatsächlichen Gefahr der Verbreitung vertraulicher Informationen noch einen etwaigen schweren und nicht wiedergutzumachenden Schaden infolge einer solchen Gefahr dargetan.

Den Volltext des Beschlusses finden Sie hier:

OLG Dresden: Facebook / Meta trägt bei Deaktivierung eines Nutzerkontos die Darlegungs- und Beweislast für Verstoß gegen Nutzungsbedingungen

OLG Dresden
Urteil vom 12.12.2023
4 U 1049/23


Das OLG Dresden hat entschieden, dass Facebook / Meta bei Deaktivierung eines Nutzerkontos die Darlegungs- und Beweislast für einen Verstoß gegen die Nutzungsbedingungen trägt.

Aus den Entscheidungsgründen:
Die einer fristlosen Kündigung gleichstehende „Deaktivierung“ des Nutzerkontos durch die Beklagte am 15.12.2019 ist unter Verstoß gegen die Verpflichtungen aus dem Nutzungsvertrag erfolgt. Die Beklagte kann sich insoweit weder auf ihre Nutzungsbedingungen unter Ziffer 4.2 noch auf entsprechende gesetzliche Regelungen §§ 314, 626 BGB stützen. An der Wirksamkeit von Ziffer 4.2 der Nutzungsbedingungen (Anlage K 40) bestehen keine Bedenken, denn sie entsprechen nahezu wörtlich der gesetzlichen Regelung in § 314 BGB.

Die vorübergehende (in Ziff. 3.2 der Nutzungsbedingungen geregelte) Deaktivierung und die dauerhafte Aussetzung oder Kündigung von Konten in Ziff. 4.2 erfordern in gleicher Weise eine Abwägung der gegenüberstehenden Grundrechtspositionen im Wege der praktischen Konkordanz, was nach der Rechtsprechung des BGH auch die Berücksichtigung verfahrensrechtlicher Sicherungen beinhaltet (vgl. auch Senat, Urteil vom 08.03.2022 - 4 U 1050/22, Rn 22 - juris). Dass die Netzwerkbetreiber vor dem Ergreifen von Sanktionen die ihnen zumutbaren Anstrengungen zur Aufklärung des Sachverhalts ergreifen müssen, gilt nicht nur für vorübergehende Maßnahmen, sondern erst recht für die dauerhafte Kündigung eines Nutzerkontos, die die Grundrechte des Nutzers in weitaus stärkerem Maße beeinträchtigt als etwa die 30-tägige Versetzung in den "read-only"-Modus (vgl. Senat, Urteil vom 08.03.2022 - 4 U 1050/21, Rn 22 - juris). Der Netzwerkbetreiber muss sich in seinen Geschäftsbedingungen dazu verpflichten, den betreffenden Nutzer über die Entfernung eines Beitrages und eine beabsichtigte Sperrung seines Nutzerkontos umgehend zu informieren, ihm den Grund dafür mitzuteilen und eine Möglichkeit zu geben, hierzu Stellung zu nehmen, an die sich eine Neubescheidung anschließt, mit der die Möglichkeit der Wiederzugänglichmachung des entfernten Beitrages einhergeht (vgl. BGH, Urteil vom 27.02.2022 - III ZR 12/21, Leitsatz 4 zu Ziffer 3.2. der Nutzungsbedingungen der Beklagten). Es ist allerdings nicht zwingend geboten, die notwendige Anhörung vor dieser Maßnahme durchzuführen. Ausreichend ist vielmehr, wenn der Netzwerkbetreiber im Hinblick auf die Löschung eines Beitrages in seinen Geschäftsbedingungen den Nutzern ein Recht auf unverzügliche nachträgliche Benachrichtigung, Begründung und Gegendarstellung mit anschließender Neubescheidung einräumt (BGH, a.a.O.). Eine solche Sachverhaltsaufklärung vor einer fristlosen Kündigung wird sowohl in den §§ 314, 626 BGB als auch in Ziff. 4.2. der Nutzungsbedingungen durch das Regelerfordernis der Abmahnung sichergestellt (vgl. Senat, Urteil vom 08.03.2022 - 4 U 1050/21, Rn 22 - juris). Von dem Erfordernis der Abmahnung oder der Einräumung einer Abhilfefrist kann nur in bestimmten, eng begrenzten Ausfällen abgewichen werden, wenn die andere Seite die Erfüllung ihrer Pflicht ernsthaft und endgültig verweigert oder wenn besondere Umstände eine sofortige Kündigung rechtfertigen.

Die Beklagte hat diese von ihr selbst aufgestellten Voraussetzungen für eine fristlose Kündigung hier allerdings nicht eingehalten. Sie hat dem Kläger unstreitig weder eine Abhilfefrist eingeräumt noch ihn abgemahnt, bevor sie das Konto dauerhaft deaktivierte. Anhaltspunkte dafür, dass der Kläger sich ernsthaft geweigert hätte, sich an die Gemeinschaftsstandards zu halten, sind nicht ersichtlich und von der Beklagten nicht vorgetragen. Es ist auch nicht ersichtlich, dass unter Abwägung der Interessen beider Parteien wegen der besonderen Umstände eine sofortige Kündigung auch ohne vorherige Abmahnung oder einer zu gewährenden Abhilfefrist zulässig gewesen sein soll. Vortrag hierzu ist nicht vorhanden.

Darüber hinaus hat die Beklagte zum Vorliegen eines Kündigungsgrundes nicht schlüssig vorgetragen. Die Beklagte hat sich zur Begründung eines Verstoßes des Klägers gegen ihre Gemeinschaftsstandards darauf beschränkt, einen Verstoß gegen das Verbot von Nacktdarstellung und sexueller Ausbeutung von Kindern zu behaupten. Dies reicht nicht aus. Es besteht weder ein Screenshot des vom Kläger veröffentlichten Beitrages noch hat die Beklagte den Inhalt des Beitrages konkret dargestellt.

Es obliegt nach allgemeinen Darlegungs- und Beweislastgrundsätzen der Beklagten, die sich auf einen Verstoß gegen ihre Gemeinschaftsstandards durch den Kläger beruft, vorzutragen und zu beweisen, dass ein wichtiger Grund für die dauerhafte Deaktivierung des Nutzerkontos vorgelegen hat. Insoweit kann sich die Beklagte nicht mit Erfolg auf den Hinweisbeschluss des Oberlandesgerichts München vom 22.08.2019 (18 U 1319/19, Anlage B35) stützen. Der maßgebliche Abschnitt verhält sich nicht zur dauerhaften Deaktivierung, sondern betrifft die Darlegungs- und Beweislast des Gesamtkontextes als Voraussetzung der korrekten rechtlichen Bewertung der konkreten Äußerung. Unabhängig davon ist nach allgemeinen Beweislastgrundsätzen derjenige, der sich auf bestimmte Tatsachen stützt (Verstoß gegen Gemeinschaftsstandards, Wirksamkeit der von ihm ausgesprochenen fristlosen Kündigung) darlegungs- und beweisbelastet. Die Beweislast für den Kündigungsgrund liegt beim Kündigungsberechtigten (vgl. OLG Hamm, Beschluss vom 22.09.2020 - 21 U 92/19 - juris). Unabhängig hiervon wäre es dem Kläger angesichts der Pauschalität der Vorwürfe auch gar nicht möglich, die Vorwürfe der Beklagten zu widerlegen und die negative Tatsache, nicht gegen die Gemeinschaftsstandards verstoßen zu haben, zu beweisen.

Soweit die Beklagte behauptet, ihr sei kein weiterer Vortrag möglich, weil der Beitrag unwiederbringlich und vollständig gelöscht worden sei, hat sie den Umstand, dass ihr weder ein schlüssiger Vortrag noch ein Beweisantritt möglich ist, selbst herbeigeführt.

1.3. Dem Kläger steht jedoch der im Hauptantrag geltend gemachte Anspruch auf die Wiederherstellung des Nutzerkontos mit allen Verknüpfungen seines Profils, wie es zum Löschungszeitpunkt bestand, nicht zu. Denn insoweit ist die Wiederherstellung nahezu vier Jahre nach der Deaktivierung nicht ohne weiteres möglich. Zum einen - und dies stellt der Kläger auch nicht in Abrede - ist offen, ob andere Nutzer, mit denen der Kläger zum Zeitpunkt der Deaktivierung seines Nutzerkontos noch verknüpft war, noch auf der sozialen Plattform aktiv sind. Zum anderen hat die Beklagte plausibel dargelegt, dass sie den in Rede stehenden Beitrag, der Auslöser für die Deaktivierung des Kontos war, endgültig und dauerhaft gelöscht habe. Auch dies hat der Kläger in der mündlichen Verhandlung vor dem Senat nicht mehr ernsthaft in Abrede gestellt. Eine Herstellung ist insoweit unmöglich gemäß § 275 Abs. 1 BGB und kann von der Beklagten nicht verlangt werden.

1.4. Der mit dem Hilfsantrag begehrte Anspruch ist nicht gemäß § 242 BGB i.V.m. Ziffer 3.1. der Nutzungsbedingungen wegen Fehlens eines schutzwürdigen Eigeninteresses ausgeschlossen, weil der Kläger ein anderes Nutzerkonto auf der sozialen Plattform bei der Beklagten errichtet hat. Nach Ziffer 3.1. kann jeder Nutzer nur ein einziges Konto für persönliche Zwecke nutzen. Gleichwohl kann die von der Beklagten vertragswidrige Deaktivierung des Nutzerkontos nicht mit der Begründung verweigert werden, der Kläger verfüge über ein anderes Konto, zumal das deaktivierte Konto über Beiträge und Verknüpfungen verfügte, die das neue Konto allein schon wegen der Dauer seines Bestehens nicht aufweisen kann. Es ist nach Wiederherstellung des früheren Nutzerkontos Sache der Parteien, wie die in Ziffer 3.1. der Nutzungsbedingungen enthaltene Regelung umgesetzt wird. Dies kann auch durch eine Löschung eines der Nutzerkonten durch den Kläger geschehen.

Der Kläger hat einen Anspruch auf Berichtigung der Daten dahingehend, dass das Vorliegen eines Verstoßes gegen die Nutzungsbedingungen, der der Deaktivierung zugrunde lag, aus dem Datensatz gelöscht und der Zähler, der die Zahl der Verstöße erfasst, um einen Verstoß zurückgesetzt wird, §§ 280, 241, 249 BGB. Der Anspruch folgt aus dem Nutzungsvertrag, den die Beklagte durch die rechtswidrige Deaktivierung verletzt hat (vgl. Senat, Urteil vom 08.03.2022 - 4 U 1050/21, Rn 26 - juris).

[…]

Der Kläger hat gegen die Beklagte keinen Anspruch, dass es diese unterlässt, sein Konto zu deaktivieren, ohne ihn vorab über die beabsichtigte Sperre zu informieren und ihm die Möglichkeit zur Gegenäußerung mit anschließender Neubescheidung einzuräumen. Ebenso wenig hat er Anspruch darauf, dass es die Beklagte unterlässt, etwaige Beiträge zu löschen, ohne ihn zugleich in speicherbarer Form den Anlass der Löschung oder Sperrung mitzuteilen.

Unabhängig davon, dass die Beklagte verpflichtet ist, vor einer fristlosen Kündigung und damit verbundener Kontosperrung dem Kläger eine Abhilfemöglichkeit einzuräumen oder ihn abzumahnen, ist es nicht stets unwirksam, ein Nutzerkonto ohne vorherige Anhörung zu deaktivieren. Dies kann z. B. bei besonders schweren Verstößen gegen die Gemeinschaftsstandards und/oder bei strafbaren Handlungen der Fall sein. Nimmt ein Nutzer z. B. kinderpornographische Bilder oder andere strafbare Handlungen in seine timeline auf, so ist eine sofortige Sperrung oder Deaktivierung seines Nutzerkontos ohne Anhörung möglich(vgl. BGH, Urteil vom 27.01.2022 - III ZR 12/21, Leitsatz 5). Um eine strafrechtliche Verantwortlichkeit, eine zivilrechtliche Haftung oder eine Inanspruchnahme nach dem Netzwerkdurchsetzungsgesetz (NetzDG) auszuschließen, muss die Beklagte unverzüglich tätig werden, um Beiträge mit strafbaren oder rechtsverletzenden Inhalten, die sie für ihre Nutzer gespeichert hat, zu entfernen oder zu sperren, sobald sie Kenntnis von Tatsachen oder Umständen erlangt hat, aus denen die Rechtswidrigkeit der Beiträge offensichtlich wird (vgl. BGH, Urteil vom 29.07.2021 - III ZR 179/20, Rdnr. 77 - juris). Aus diesem Grund kann eine sofortige Sperrung oder Löschung eines Beitrags erforderlich und auch wirksam sein.

Ebenso kann aus vorgenannten Gründen eine Sperrung oder eine Löschung eines Beitrages auch dann wirksam sein, wenn dem Nutzer nicht zugleich der Anlass der Sperrung mitgeteilt wird. Es kommt stets auf die Umstände des Einzelfalles an. Eine abstrakte Verbotsregelung kann nicht ausgesprochen werden.

Für die zugleich gegen die dauerhafte Aussetzung der Nutzungsfunktion und Kündigung gerichtete Klage besteht ein solches pauschales Anhörungserfordernis ohnehin nicht, vielmehr knüpfen Ziffer 4.2 der Nutzungsbedingungen an den Ablauf einer „gewährten Abhilfefrist“ oder einer erfolglosen Abmahnung an (vgl. Senat, Urteil vom 08.03.2022 - 4 U 1050/21, Rdnr. 28 - juris).

[…]

7. Ein Schadensersatzanspruch steht dem Kläger ebenfalls nicht zu

7.1. Der Antrag ist zwar zulässig, denn es liegt keine unzulässige alternative Klagehäufung vor. Der Kläger stützt seinen Antrag auf die rechtswidrige Deaktivierung seines Kontos und damit einen bestimmten Lebenssachverhalt. Er stützt seinen Anspruch lediglich auf unterschiedliche Anspruchsgrundlagen.

7.2. Er hat aber schon einen bei ihm entstandenen materiellen Schaden nicht hinreichend dargelegt, sondern lediglich ausgeführt, dass ihm die Nutzung unmöglich geworden sei und er dadurch einen materiellen Schaden erlitten habe. Dies genügt nicht. Im Übrigen wird auf die Ausführungen des Senats in seinem Urteil vom 08.03.2022 (4 U 1050/21 unter Rdnr. 31 - juris) in vollem Umfang Bezug genommen.

Ebenso wenig steht ihm ein Anspruch auf Geldentschädigung wegen Verletzung seines Persönlichkeitsrechtes in Form eines Schmerzensgeldes im Sinne von § 253 BGB zu. Ein solcher Anspruch wird regelmäßig erst dann zugesprochen, wenn ein schwerwiegender Eingriff von der Art ist, dass Rechtsbehelfe, die auf die Unterlassung bzw. Beseitigung der Störung zielen, die Verletzungsfolgen nicht hinreichend ausgleichen können. Dafür ist hier nichts ersichtlich. Insoweit wird ebenfalls auf die Ausführungen des Senats in seinem Urteil vom 08.03.2022 (- 4 U 1050/21 unter Rdnr. 32 - juris) in vollem Umfang Bezug genommen.

Ein Schadensersatzanspruch ist auch nicht unter dem Gesichtspunkt einer fiktiven Lizenzgebühr begründet. Unabhängig davon, dass nicht ersichtlich ist, dass vorliegend der Nutzungsmöglichkeit des Accounts ein wirtschaftlicher Wert beizumessen wäre, ist eine Bemessung von Leistung und Gegenleistung angesichts der Natur des für den Kläger unentgeltlichen Nutzungsvertrages und des unbestimmten Umfangs der im Einzelfall für die Beklagte nutzbaren Daten des Klägers nicht möglich (vgl. Senat, Urteil vom 08.03.2022 - 4 U 1050/21, Rdnr. 33 - juris).

Einen Schadensersatzanspruch kann der Kläger auch nicht mit Erfolg auf Art. 82 DSGVO stützen. Dieser hängt von einer Verarbeitung personenbezogener Daten unter Verstoß gegen die Bestimmungen der DSGVO ab. Erforderlich ist daneben ein Kausalzusammenhang zwischen der rechtswidrigen Verarbeitung und einem konkreten Schaden (so EuGH, Urteil vom 04.05.2023 - C - 300/21, Rdnr. 36 - juris). Für einen immateriellen Schaden besteht ein Nachweiserfordernis durch die betroffene Person (vgl. EuGH, a.a.O., Rdnrn. 49, 50 - juris). Der Schaden muss tatsächlich und sicher entstanden sein (vgl. EuGH, Urteil vom 04.04.2017 - C-337/15, Rdnr. 91 - juris). Dazu ist - wie bereits ausgeführt - nichts vorgetragen worden. Der bloße Datenverlust stellt keinen Schaden dar (vgl. Senat, Urteil vom 20.08.2020 - 4 U 784/20 - juris; vgl. Urteil Senat vom 05.12.2023 - 4 U 709/23 - zur Veröffentlichung vorgesehen). Der Kontrollverlust über die Daten stellt keinen immateriellen Schaden im Sinne von Art. 82 DSGVO dar (vgl. OLG Hamm, Urteil vom 15.08.2023 - 7 U 19/23, Rn 151 - juris; vgl. Urteil Senat vom 05.12.2023 - 4 U 709/23 - zur Veröffentlichung vorgesehen).




OLG Frankfurt: Facebook / Meta muss bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen

OLG Frankfurt
Urteil vom 25.1.2024
16 U 65/22

Das OLG Frankfurt hat entschieden, dass Plattformbetreiber wie Facebook / Meta bei ehrverletzenden Inhalten auch kerngleiche Inhalte und Memes ohne erneute Inkenntnissetzung automatisch löschen muss.

Die Pressemitteilung des Gerichts:
Facebook - Löschverpflichtung von rechtswidrig geposteten Inhalten

Nach Kenntnis rechtswidriger geposteter Inhalte muss Plattformbetreiber auch sinn- bzw. kerngleiche Posts löschen.

Die konkrete Kenntnis eines rechtsverletzenden Posts (hier: Falschzitat) verpflichtet einen Plattformbetreiber - hier Meta -, auch andere sinngleiche Äußerungen zu löschen. Der Umstand, dass die Bewertung automatisiert aufgefundener sinngleicher Äußerungen teilweise einer kontextgebundenen menschlich-händischen Überprüfung bedarf, führt nicht zur Unzumutbarkeit. Das Oberlandesgericht Frankfurt am Main (OLG) bestätigte mit heute verkündeter Entscheidung den eingeklagten Unterlassungsanspruch.

Die Klägerin ist Politikerin und für die Fraktion Bündnis90/Die Grünen im Bundestag. Sie wendet sich u.a. gegen ein sog. Meme, das über die von der Beklagten betriebene Plattform Facebook gepostet wurde. Es zeigt die Klägerin mit Bild und unter Nennung ihres Vor- und Zunamens sowie der als Zitat gekennzeichneten Äußerung: „Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen!“. Diese Äußerung hat die Klägerin unstreitig nie getätigt.

Das Landgericht hatte die Beklagte hinsichtlich dieses Meme verpflichtet, es zu unterlassen, identische oder kerngleiche Inhalte auf der Plattform öffentlich zugänglich zu machen und sie zudem zur Zahlung einer Geldentschädigung in Höhe von 10.000,00 € verurteilt.

Die hiergegen eingelegte Berufung der Beklagten hatte nur hinsichtlich der Verurteilung zur Zahlung einer Geldentschädigung, nicht aber hinsichtlich der Unterlassungsverpflichtung Erfolg.

Das Landgericht habe der Klägerin zutreffend einen Unterlassungsanspruch zuerkannt, bestätigte das OLG. Das Falschzitat stelle einen rechtswidrigen Eingriff in das allgemeine Persönlichkeitsrecht der Klägerin dar. Es verletze sie in ihrem Recht am eigenen Wort.

Die Beklagte hafte als so genannte mittelbar verantwortliche Störerin auch dafür, dass sie es zu unterlassen habe, alle weiteren identischen oder kern- bzw. sinngleichen Posts zu diesem Post zu löschen, betonte das OLG. Durch die mit anwaltlichem Schreiben erfolgte Übermittlung der konkreten URLs hinsichtlich der von der Klägerin angegriffenen Posts habe die Beklagte unmittelbar Kenntnis von der Rechtsverletzung erlangt. Zudem werde in dem Schreiben definiert, was die Klägerin unter sinngleich verstehe. Diese Kenntnis und Information habe eine Prüf- und Verhaltenspflicht hinsichtlich der Existenz sinngleicher Inhalte ausgelöst, die ebenfalls zu löschen gewesen wären.

Die Beklagte treffe - nach der E-Commerce-Richtlinie - zwar keine allgemeine Überwachungs- und aktive Nachforschungspflicht hinsichtlich rechtswidriger Inhalte. Die konkrete Kenntnis der Rechtsverletzung verpflichte die Beklagte jedoch, künftig derartige Störungen zu verhindern. Dies gelte nicht nur für wortgleiche Inhalte, sondern auch dann, wenn die darin enthaltenen Mitteilungen sinngemäß ganz oder teilweise Gegenstand einer erneuten Äußerung seien.

Bei der Nachforschung nach derartigen sinngleichen Äußerungen müsse zwar nach der Rechtsprechung des EuGH aus Gründen der Zumutbarkeit auf „automatisierte Techniken und Mittel“ zurückgegriffen werden können. Dies sei hier jedoch auch grundsätzlich der Fall. Der Umstand, dass es in Fällen der Wiedergabe des Meme mit eigenen Zusätzen (sog. Caption) einer Sinndeutung bedürfe, so dass nicht rein automatisiert vorgegangen werden könne, stehe dem nicht entgegen. Der Senat fordere keine - europarechtswidrige - autonome rechtliche Prüfung des Inhalts solcher Posts, die sich vom Ursprungspost lösen. Der Beklagten werde nur die Beurteilung auferlegt, ob die Unterschiede aufgrund der abweichenden Gestaltung gegenüber dem Meme nach dem Verständnis eines durchschnittlichen Empfängers bewirkten, dass erkennbar werde, dass ein Falschzitat vorliege oder nicht. Diese menschlich-händische Einzelfallbewertung sei in Kombination mit technischen Verfahren automatisch erkannter bereits hochgeladener Inhalte zumutbar. Im Übrigen könne mithilfe des Einsatzes sog. KI-Systeme eine weitere automatische Vorfilterung erfolgen.

Der Klägerin stehe jedoch kein Anspruch auf Geldentschädigung zu. Dabei könne offenbleiben, ob bei einer hartnäckigen Verweigerung, einem Unterlassungsanspruch nachzukommen, ein solcher Anspruch begründet sei. Hier fehle es jedenfalls an einer solchen hartnäckigen Verweigerung.

Die Entscheidung ist nicht rechtskräftig. Der Senat hat wegen der grundsätzlichen Bedeutung der Frage, ob und unter welchen Voraussetzungen die Beklagte als sog. Hostprovider eine Prüf- und Verhaltenspflicht in Bezug auf sinngleiche Inhalte treffe, die Revision zugelassen.

Oberlandesgericht Frankfurt am Main, Urteil vom 25.1.2024, Az. 16 U 65/22

(vorausgehend LG Frankfurt am Main, Urteil vom 8.4.2022, Az. 2-03 O 188/21)



EuGH-Generalanwalt: Verbandsklagebefugnis für Verbraucherschutzverbände bei DSGVO-Verstoß - Verletzung der Informationspflicht aus Art. 12 Abs. 1 Satz 1 und Art. 13 Abs. 1 Buchst. c, e DSGVO

EuGH-Generalanwalt
Schlussanträge vom 25.01.2024
C‑757/22
Meta Platforms Ireland Limited
gegen
Bundesverband der Verbraucherzentralen und Verbraucherverbände – Verbraucherzentrale Bundesverband e. V.


Der EuGH-Generalanwalt kommt in seinen Schlussanträgen zu dem Ergebnis, dass die Verbandsklagebefugnis für Verbraucherschutzverbände bei DSGVO-Verstößen u.a. dann anzunehmen ist, wenn es um die Verletzung der Informationspflicht aus Art. 12 Abs. 1 Satz 1 DSGVO und Art. 13 Abs. 1 Buchst. c und e DSGVO geht.

Ergebnis des EuGH-Generalanwalts:
Art. 80 Abs. 2 der Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) ist dahin auszulegen, dass

die Bedingung, wonach eine ermächtigte Einrichtung, um eine Verbandsklage nach dieser Bestimmung erheben zu können, geltend machen muss, dass ihres Erachtens die Rechte einer betroffenen Person aus der DSGVO infolge einer Verarbeitung verletzt worden sind, voraussetzt, dass diese Einrichtung eine Verarbeitung personenbezogener Daten sowie einen Zusammenhang zwischen der Rechtsverletzung und der Verarbeitung behauptet. Die Bedingung ist erfüllt, wenn die Klage im Zusammenhang mit einer Verarbeitung personenbezogener Daten darauf gestützt wird, dass der Verantwortliche die Informationspflicht gemäß Art. 12 Abs. 1 Satz 1 in Verbindung mit Art. 13 Abs. 1 Buchst. c und e DSGVO verletzt hat, da eine solche Verletzung die Verarbeitung rechtswidrig machen kann.

Die vollständigen Schlussanträge finden Sie hier:


Bundesregierung: Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts - DSA - Stand 15.01.2024

Die Bundesregierung hat den Entwurf eines Gesetzes zur Umsetzung des Digital Services Acts (DSA) - Stand 15.01.2024 vorgelegt.

Aus dem Entwurf:
Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze

A. Problem und Ziel

Am 16. November 2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG in Kraft getreten (im Folgenden „DSA“ [= Digital Services Act]). Der DSA gilt ab dem 17. Februar 2024. Mit dem DSA wird ein horizontaler Rechtsrahmen, also ein einheitlicher Rechtsrahmen für alle Kategorien digitaler Vermittlungsdienste, geschaffen.

Ziel des DSA ist es, für alle Mitgliedstaaten der Europäischen Union (EU) einheitliche horizontale Regeln festzulegen für ein sicheres und vertrauenswürdiges Online-Umfeld, in dem die in der EU-Grundrechtecharta verankerten Grundrechte, darunter der Verbraucherschutz, wirksam geschützt werden. Zudem soll eine starke und dauerhafte Aufsichtsstruktur aufgesetzt werden, die eine wirksame Aufsicht über digitale Vermittlungsdienste in der EU sicherstellt. Als neue Aufsichtsbehörde soll in jedem Mitgliedstaat ein Koordinator für digitale Dienste eingesetzt werden, der auch Beschwerden von Nutzerinnen und Nutzern aus dem jeweiligen Mitgliedstaat entgegennimmt und Zugriff auf die Daten der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen (mit mehr als 45 Mio. Nutzern in der EU) erhält. Ergänzend regelt der DSA das Verhältnis der digitalen Vermittlungsdienste zu ihren Nutzerinnen und Nutzern neu. So müssen Hostingdiensteanbieter Melde- und Abhilfeverfahren für illegale Inhalte vorhalten. Zudem werden Hostingdiensteanbieter zu Maßnahmen gegen illegale Aktivitäten und Anbieter von Online-Plattformen zu Maßnahmen gegen eine mögliche missbräuchliche Verwendung der Melde- und Abhilfeverfahren verpflichtet. Vertrauenswürdige Hinweisgeber sollen bei Meldungen bevorzugt werden. OnlineMarktplätze müssen die Händler, die auf ihren Plattformen Produkte oder Dienstleistungen anbieten wollen, vorher überprüfen. Ferner sieht der DSA im Bereich kommerzieller Werbung Transparenzverpflichtungen sowie ein Verwendungsverbot bestimmter personenbezogener Daten vor sowie für sehr große Online-Plattformen bzw. sehr große Online-Suchmaschinen strengere Verpflichtungen als für kleine und mittlere Anbieter. Dies alles soll die Sicherheit des digitalen Umfelds fördern. Schließlich wird ein Rahmen für die Umsetzung, Zusammenarbeit, Sanktionierung und Durchsetzung des DSA festgelegt, der konkrete, an die Mitgliedstaaten gerichtete Regelungsaufträge enthält. Neben einer Durchführung im nationalen Recht erfordert der DSA auch eine Überprüfung und Anpassung des bestehenden nationalen Rechts.

B. Lösung

Mit dem vorliegenden Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2022/2065 sowie zur Durchführung der Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten und zur Änderung weiterer Gesetze (Digitale-Dienste-Gesetz) wird der nationale Rechtsrahmen an den Vorgaben des DSA ausgerichtet und entsprechend angepasst.

Bestehende nationale Regelungen, die sich zu Angelegenheiten verhalten, die durch den DSA geregelt werden, sind im Lichte der vom europäischen Gesetzgeber bezweckten vollständigen Harmonisierung des Regulierungsrahmens für digitale Dienste entweder anzupassen oder aufzuheben.

Der Gesetzentwurf schafft vor allem einen Rechtsrahmen für die behördliche Überwachung der Einhaltung von DSA-Vorschriften durch Anbieter von Vermittlungsdiensten. Zu diesem Zweck wird insbesondere eine zentrale Stelle für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und für die Durchsetzung des DSA benannt: Die Koordinierungsstelle für digitale Dienste wird innerhalb der zuständigen Bundesnetzagentur eingerichtet, um eine wirksame und zugleich unabhängige Aufsicht über digitale Vermittlungsdienste zu gewährleisten. Der vorliegende Entwurf regelt auch Organisation und Funktion der Koordinierungsstelle für digitale Dienste. Ergänzend werden Sonderzuständigkeiten für die Bundeszentrale für Kinder- und Jugendmedienschutz, für nach den medienrechtlichen Bestimmungen der Länder benannte Stellen und für den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit geschaffen. Zudem werden – wo nicht bereits durch den DSA geregelt – Befugnisse der vorgenannten Stellen festgelegt. Der Gesetzentwurf regelt ebenfalls die Zusammenarbeit der jeweils zuständigen Stellen mit weiteren Behörden, deren Zuständigkeit im Einzelfall berührt werden kann. Der vom DSA vorgegebene Spielraum für Sanktionen bei Verstößen gegen den DSA wird durch diesen Gesetzentwurf ausgeschöpft. Ergänzend werden erforderliche Gesetzesänderungen vorgenommen, um nationales Recht an die Terminologie des DSA anzupassen.


Den vollständigen Entwurf finden Sie hier:


BGH: Identifizierende Tatschilderung des Opfers in sozialen Medien kann bei gewichtigen Gründen auch bei schwerwiegende Folgen für den Täter zulässig sein

BGH
Urteil vom 17.10.2023
VI ZR 192/22
GG Art. 1 Abs. 1, Art. 2 Abs. 1; BGB § 823 Abs. 1,§ 1004 Abs. 1 Satz 2


Der BGH hat entschieden, dass eine identifizierende Tatschilderung des Opfers in sozialen Medien bei gewichtigen Gründen auch bei schwerwiegende Folgen für den Täter durch Prangerwirkung und Stigmatisierung zulässig sein kann.

Leitsatz des BGH:
Sprechen gewichtige Gründe für eine identifizierende Tatschilderung seitens des Opfers, muss diese auch dann hingenommen werden, wenn sie (aufgrund einer Prangerwirkung oder Stigmatisierung) schwerwiegende Folgen für die Persönlichkeitsentfaltung des Täters hat. In der Abwägung der Interessen des Opfers an der Verbreitung der Wahrheit über eine Tat und die Identität des Täters einerseits und dem Persönlichkeitsrecht des Täters andererseits wird das Gewicht der Meinungsfreiheit des Opfers verstärkt, wenn die von ihm geschilderte Tat eine die Öffentlichkeit bzw. den Adressatenkreis des Opferberichts wesentlich berührende Frage ist und ein Interesse der Gesellschaft daran besteht, aus der Opferperspektive über die Tat informiert zu werden (vgl. BVerfGE 97, 391, 406 f., juris Rn. 53, 57).

BGH, Urteil vom 17. Oktober 2023 - VI ZR 192/22 - OLG Frankfurt am Main - LG Frankfurt am Main

Den Volltext der Entscheidung finden Sie hier:

OLG Stuttgart: Bezeichnung einer Politikerin als "dämliches Stück Hirn-Vakuum" in sozialen Medien ist unzulässige Schmähkritik

OLG Stuttgart
Urteil vom 29.11.2023
4 U 58/23


Das OLG Stuttgart hat entschieden, dass die Bezeichnung einer Politikerin als "dämliches Stück Hirn-Vakuum" in sozialen Medien eine unzulässige Schmähkritik ist.

Die Pressemitteilung des Gerichts:
OLG Stuttgart: Bezeichnung als „dämliches Stück Hirn-Vakuum“ ist eine Schmähkritik, die nicht hingenommen werden muss

Der 4. Zivilsenat des Oberlandesgerichts Stuttgart hat heute den Autor eines Facebook-Beitrags, in dem eine deutsche Politikerin als „dämliches Stück Hirn-Vakuum“ bezeichnet wird, zur Unterlassung verurteilt und insoweit die Entscheidung der Vorinstanz abgeändert. Hinsichtlich des über den Unterlassungsanspruch hinaus geltend gemachten Geldentschädigungsanspruchs blieb die Klage allerdings ohne Erfolg.

Die Klägerin, die unter anderem als Bevollmächtigte des Landes Berlin beim Bund, als Staatssekretärin für Bürgerschaftliches Engagement und Internationales in der Berliner Senatskanzlei und als stellvertretende Sprecherin des Auswärtigen Amts tätig war, hat auf Twitter Dieter Nuhr als Reaktion auf einen Beitrag in dessen Sendung „Nuhr im Ersten“ kritisiert und dabei u.a. die Worte „ignorant, dumm und uninformiert“ verwendet. Hierzu hat der CDU-Fraktionsvorsitzende im Landtag von Brandenburg auf Facebook Stellung genommen. Unter diesem Beitrag hat der Beklagte kommentiert: „Selten so ein dämliches Stück Hirn-Vakuum in der Politik gesehen wie C.. Soll einfach abtauchen und die Sozialschulden ihrer Familie begleichen.“ Die Klägerin hat den Beklagten wegen dieses – mittlerweile gelöschten – Beitrags zunächst abmahnen lassen und sodann Klage auf Unterlassung und Schmerzensgeld erhoben. Der Beklagte hat geltend gemacht, er sei nicht der Urheber des Beitrags, jemand müsse sich seines Notebooks bemächtigt haben. Das Landgericht Heilbronn hat die Klage in erster Instanz vollumfänglich abgewiesen und ausgeführt, der Beitrag sei jedenfalls noch von der Meinungsfreiheit gedeckt.

Entscheidung des Senats

Der Senat hat dem Unterlassungsantrag stattgegeben.

Bei der Äußerung handele es sich um eine Schmähkritik, für die der Beklagte hafte, weil er seinen Rechner und sein Facebook-Nutzerkonto nicht ausreichend vor fremden Zugriffen gesichert und keine ausreichenden Anknüpfungstatsachen vorgetragen habe, die eine nach höchstrichterlichen Grundsätzen entwickelte Vermutungswirkung entfallen ließen. Zudem sei der Senat nach den Ausführungen des Beklagten in der Berufungsverhandlung davon überzeugt, dass er den streitgegenständlichen Beitrag selbst verfasst hat, denn er habe sich mehrfach von den Äußerungen distanziert, gleichzeitig den Beitrag aber damit verteidigt, dass es ihm erlaubt sein müsse, auf die Klägerin als Politikerin zu reagieren, um diese angesichts ihres (vom Beklagten näher beschriebenen) eigenen Verhaltens „fertig zu machen“.

Bei der Annahme einer Schmähung sei zwar grundsätzlich Zurückhaltung geboten, im Fall des Beklagten sei aber davon auszugehen, weil bei seinem Beitrag nicht mehr die Auseinandersetzung in der Sache, sondern die Diffamierung der Person im Vordergrund stehe und seine Äußerung keinen irgendwie nachvollziehbaren Bezug mehr zu einer sachlichen Auseinandersetzung habe, sondern es bei ihr nur um das grundlose Verächtlichmachen der betroffenen Person als solcher gehe:

Mit der Aussage auf dem Facebook-Nutzerkonto des Beklagten werde die Klägerin durch die Verwendung der Begriffe „dämlich“ und „Hirn-Vakuum“ als dumme und hirnlose Politikerin charakterisiert, die aus der Politik verschwinden soll („abtauchen“). Es handele sich um eine Äußerung, die durch die zusätzliche Verwendung des Begriffs „Stück“ (konkret: dämliches Stück Hirn-Vakuum) eine die Klägerin abwertende und diffamierende Komponente enthalte, weil ein Mensch (oder dessen Teile) nicht als Stück bezeichnet wird, da ihm damit jede persönliche Würde abgesprochen wird (Art. 1 GG). Die Aussage stehe zwar im Kontext der Beiträge der Klägerin und des CDU-Fraktionsvorsitzenden im Landtag von Brandenburg und knüpfe damit äußerlich an eine – öffentlich geführte – Auseinandersetzung an, sei aber völlig von der vorherigen Auseinandersetzung losgelöst, indem die Klägerin nur persönlich beschimpft und angegangen werde. Auch wenn die Klägerin zunächst selbst stark abwertende und ebenfalls persönlichkeitsrechtsverletzende Begriffe verwandt habe – „ignorant, dumm und uninformiert“ –, könne der unsägliche Kommentar des Beklagten nicht mehr als adäquate Reaktion auf das Vorverhalten der Klägerin angesehen werden.

Bei der Aussage „Soll einfach abtauchen und die Sozialschulden ihrer Familie begleichen“ handele es sich ebenfalls um ein Werturteil, das nicht von der Meinungsfreiheit gedeckt sei. Darin sei eine Herabsetzung von Immigranten zu sehen und der Klägerin angesonnen, zu verschwinden oder abzuhauen und den Mund zu halten. Auch insoweit fehle jeglicher Bezug zu der Diskussion um das Verhalten des Kabarettisten Dieter Nuhr, weshalb auch diese Aussage allein dazu diene, die Klägerin verächtlich zu machen.

Den ebenfalls geltend gemachten Geldentschädigungsanspruch hat der Senat mit der Begründung verneint, dass es trotz der eheblichen Persönlichkeitsrechtsverletzung an dem von der höchstrichterlichen Rechtsprechung vorausgesetzten unabwendbaren Bedürfnis für die Zubilligung einer Geldentschädigung fehle, zumal die Klägerin selbst starke Worte benutzt und den Diskurs damit erst veranlasst habe und der streitgegenständliche Beitrag zeitnah gelöscht worden sei. Vor diesem Hintergrund sei der zugesprochene Unterlassungstitel ausreichend.

Die Revision hat der Senat nicht zugelassen, nachdem es sich um einen Einzelfall handele; eine grundsätzliche Bedeutung sei nicht erkennbar. Die Entscheidung ist damit rechtskräftig.

OLG Stuttgart - 4 U 58/23 - LG Heilbronn - 8 O 85/22



LG Augsburg: Keine unzulässige Werbung per E-Mail durch Angabe von URLs der Social-Media-Accounts und Unternehmenswebsite des Absenders in E-Mail-Signatur

LG Augsburg
Hinweisbeschluss vom 18.10.2023
044 S 2196/23


Das LG Augsburg führt in einem Hinweisbeschluss aus, dass die Angabe der URLs der Social-Media-Accounts und der Unternehmenswebsite des Absenders in der E-Mail-Signatur keine unzulässige Werbung per E-Mail darstellt. Damit bestätigt das LG Augsburg die Einschätzung der Vorinstanz.

Aus dem Beschluss:
Das Urteil des Amtsgerichts weist weder Rechtsfehler im Sinne des § 546 ZPO auf noch rechtfertigen die nach § 529 ZPO zugrunde zu legenden Feststellungen eine andere Entscheidung (§ 513 ZPO).

Hierbei kann im Ergebnis offen bleiben, ob es sich bei den bloßen Links auf Social-Media-Auftritte der Beklagten in der streitgegenständlichen Auto-Reply-Email vom 12.12.2022 überhaupt um Werbung im Sinne des Art. 2 Buchst. a der RL 2006/114/EG des Europäischen Parlaments und des Rates vom 12. Dezember 2006 handelt.

Denn jedenfalls fehlt es an der Rechtswidrigkeit eines etwaigen Eingriffs in das Persönlichkeitsrecht des Klägers bzw. in seinen eingerichteten und ausgeübten Gewerbebetrieb. Das Einblenden eines bloßen Links auf Social-Media-Präsenzen stellt sich nicht als rechtswidrig dar. Dem Amtsgericht ist beizupflichten, dass insoweit zu berücksichtigen ist, dass es sich um eine E-Mail im Rahmen einer vom Kläger initiierten Kommunikation gehandelt hat und die Nachricht informativen Charakter hatte, da dem Kläger die Abwesenheit des von ihm kontaktierten Mitarbeiters mitgeteilt worden ist. Auch stellt die bloße Verlinkung auf Social-Media-Auftritte der Beklagten, wenn man sie überhaupt als Werbung ansieht, keine konkrete Beeinträchtigung für den Kläger dar. Anders als in dem vom Bundesgerichtshof entschiedenen Fall zur Auto-Reply-Werbung (BGH BeckRS 2016, 2711) wird hier nicht für konkrete Produkte geworben, sondern nur ein Link eingeblendet, welcher für sich genommen keinen konkreten inhaltlichen Informationsgehalt hat. Daher musste sich der Kläger bei Lesen der E-Mail, anders als dies in dem vom Bundesgerichtshof entschiedenen Fall gewesen ist, nicht gedanklich mit konkreten Angeboten der Beklagten auseinandersetzen. Wie das Amtsgericht vollkommen zutreffend ausgeführt hat, konnte der Kläger die Links einfach ignorieren. Ein zeitlicher Aufwand durch die Einblendung der Links entsteht für den Leser einer solchen Nachricht nicht. Links können bei Interesse angeklickt oder einfach nicht weiter beachtet werden. Eine gedankliche Auseinandersetzung mit einer derartigen Verlinkung erfolgt anders als bei konkreten Hinweisen auf bestimmte Servicedienstleistungen oder eine App, wie in dem vom BGH entschiedenen Fall, gerade nicht. Derartige Links sind mittlerweile als Teil der Signatur üblich, sodass für den Leser keinerlei Aufwand entsteht, um diese vom informatorischen Teil der Email zu trennen.

Die von der Klagepartei zitierte Rechtsprechung zu einer Kundenzufriedenheitsanfrage (BGH, Urteil vom 10.07.2018 – VI ZR 255/17) ist mit dem vorliegenden Fall schon deshalb nicht vergleichbar, da dort bereits die Nachricht als solche als Beeinträchtigung angesehen wurde.


Den Volltext des Hinweisbeschlusses finden Sie hier:

EuGH: Google, Meta Platforms und Tik Tok dürfen zusätzliche Verpflichtungen in anderem Mitgliedstaat als dem ihres Sitzes nur im konkreten Einzelfall auferlegt werden

EuGH
Urteil vom 09.11.2023
C-376/22
Google Ireland, Meta Platforms Ireland, TikTok


Der EuGH hat entschieden, dass Anbietern wie Google, Meta Platforms und Tik Tok zusätzliche Verpflichtungen in einem anderen Mitgliedstaat als dem ihres Sitzes nur im konkreten Einzelfall auferlegt werden dürfen.

Die Pressemitteilung des EuGH:
Bekämpfung rechtswidriger Inhalte im Internet: Ein Mitgliedstaat darf einem Anbieter einer Kommunikationsplattform, der in einem anderen Mitgliedstaat niedergelassen ist, keine generell-abstrakten Verpflichtungen auferlegen

Eine solche nationale Herangehensweise verstößt gegen das Unionsrecht, das den freien Verkehr von Diensten der Informationsgesellschaft durch den Grundsatz der Aufsicht im Herkunftsmitgliedstaat des betreffenden Dienstes gewährleiste.

Im Jahr 2021 hat Österreich ein Gesetz eingeführt, das inländische und ausländische Anbieter von Kommunikationsplattformen verpflichtet, Melde- und Überprüfungsverfahren für potenziell rechtswidrige Inhalte einzurichten. Dieses Gesetz sieht auch eine regelmäßige und transparente Veröffentlichung von Meldungen rechtswidriger Inhalte vor. Eine Verwaltungsbehörde stellt die Einhaltung der gesetzlichen Bestimmungen sicher und kann Geldstrafen in Höhe von bis zu 10 Mio. Euro verhängen.

Google Ireland, Meta Platforms Ireland und TikTok, drei in Irland ansässige Plattformen, machen geltend, dass das österreichische Gesetz gegen das Unionsrecht, konkret gegen die Richtlinie über Dienste der Informationsgesellschaft , verstoße.

Hierzu von einem österreichischen Gericht befragt, weist der Gerichtshof auf das Ziel der Richtlinie hin: Schaffung eines rechtlichen Rahmens, um den freien Verkehr von Diensten der Informationsgesellschaft zwischen den Mitgliedstaaten sicherzustellen. Unter diesem Gesichtspunkt beseitigt die Richtlinie durch den Grundsatz der Aufsicht im Herkunftsmitgliedstaat die Hemmnisse, die die verschiedenen nationalen, auf diese Dienste anwendbaren Regelungen darstellen.

Zwar können andere Mitgliedstaaten als der Herkunftsmitgliedstaat des betreffenden Dienstes unter eng gefassten Bedingungen und in bestimmten Fällen tatsächlich Maßnahmen ergreifen, um die öffentliche Ordnung, den Schutz der öffentlichen Gesundheit, die öffentliche Sicherheit oder den Schutz der Verbraucher zu gewährleisten. Diese konkreten Ausnahmen sind der Europäischen Kommission und dem Herkunftsmitgliedstaat mitzuteilen.

Jedoch dürfen andere Mitgliedstaaten als der Herkunftsmitgliedstaat des betreffenden Dienstes keine generell-abstrakten Maßnahmen ergreifen, die unterschiedslos für alle Anbieter einer Kategorie von Diensten der Informationsgesellschaft gelten. Unterschiedslos bedeutet ohne Unterschied zwischen in diesem Mitgliedstaat ansässigen Diensteanbietern und solchen, die in anderen Mitgliedstaaten niedergelassen sind.

Hätten diese Mitgliedstaaten die Möglichkeit, solche generell-abstrakten Verpflichtungen zu erlassen, würde dies nämlich den Grundsatz der Aufsicht im Herkunftsmitgliedstaat des betreffenden Dienstes, auf dem die Richtlinie beruht, in Frage stellen. Wäre der Bestimmungsmitgliedstaat (hier Österreich) ermächtigt, solche Maßnahmen zu erlassen, würde in die Regelungskompetenz des Herkunftsmitgliedstaats (hier Irlands) eingegriffen. Im Übrigen würde dies das gegenseitige Vertrauen zwischen den Mitgliedstaaten untergraben und gegen den Grundsatz der gegenseitigen Anerkennung verstoßen. Zudem unterlägen die betreffenden Plattformen unterschiedlichen Rechtsvorschriften, was auch dem freien Dienstleistungsverkehr und damit dem reibungslosen Funktionieren des Binnenmarkts zuwiderlaufen würde.


Den Volltext der Entscheidung finden Sie hier:

EDSA untersagt Meta / Facebook / Instagram die Nutzung personenbezogener Daten für personalisierte Werbung

Der Europäische Datenschutzausschuss (EDSA) hat Meta / Facebook / Instagram die Nutzung personenbezogener Daten für personalisierte Werbung untersagt.

Die Pressemitteilung der EDSA:
EDPB Urgent Binding Decision on processing of personal data for behavioural advertising by Meta

Launch of coordinated enforcement

On 27 October, the EDPB adopted an urgent binding decision instructing the Irish (IE) DPA as lead supervisory authority (LSA) to take, within two weeks, final measures regarding Meta Ireland Limited (Meta IE) and to impose a ban on the processing of personal data for behavioural advertising on the legal bases of contract and legitimate interest across the entire European Economic Area (EEA).

The urgent binding decision followed a request from the Norwegian Data Protection Authority (NO DPA) to take final measures in this matter that would have effect in the entire European Economic Area (EEA).

The ban on processing will become effective one week after the notification of the final measures by the IE SA to the controller.
The Irish DPC has notified Meta on 31/10 about the EDPB Urgent Binding Decision.
The EDPB takes note of Meta's proposal to rely on a consent based approach as legal basis, as it was reported on 30/10. The Irish DPC is currently evaluating this together with the Concerned Supervisory Authorities (CSAs).

EDPB Chair Anu Talus said: “After careful consideration, the EDPB considered it necessary to instruct the IE SA to impose an EEA-wide processing ban, addressed to Meta IE. Already in December 2022, the EDPB Binding Decisions clarified that contract is not a suitable legal basis for the processing of personal data carried out by Meta for behavioural advertising. In addition, Meta has been found by the IE SA to not have demonstrated compliance with the orders imposed at the end of last year. It is high time for Meta to bring its processing into compliance and to stop unlawful processing.”


LG Lübeck: Einstweilige Verfügung gegen Facebook auf Unterlassung der unwiderruflichen Löschung eines bereits deaktivierten Nutzerkontos bis zum Abschluss des Hauptsacheverfahrens

LG Lübeck
Beschluss vom 02.06.2023
15 O 2/23


Das LG Lübeck hat im Rahmen eines einstweiligen Verfügungsverfahrens entschieden, dass gegen Facebook
ein Anspruch auf Unterlassung der unwiderruflichen Löschung eines bereits deaktivierten Nutzerkontos bis zum Abschluss des Hauptsacheverfahrens bestehen kann.

Aus den Entscheidungsgründen:
Der Antrag war auch begründet.

a. Der Antragstellerin stand der geltend gemachte Verfügungsanspruch zu. Bis zur Erledigung des Antrages konnte sie von der Antragsgegnerin verlangen, es bis zum rechtskräftigen Abschluss des Hauptsacheverfahrens zu unterlassen, das bereits deaktivierte Nutzerkonto der Antragstellerin und die dazu gespeicherten Daten endgültig und unwiderruflich zu löschen.

Der Anspruch folgt dabei aus § 280 Abs. 1 BGB. Hiernach können die Nutzer vorbeugende vertragliche Unterlassungsansprüche gegen Plattformbetreibern wie der Antragsgegnerin geltend machen, wenn die konkrete Gefahr einer erstmaligen Rechtsverletzung in der Zukunft besteht (Erstbegehungsgefahr) und dem Rechtsinhaber nicht zugemutet werden kann, die erste rechtswidrige Beeinträchtigung abzuwarten. Der Nachweis der Erstbegehungsgefahr obliegt dabei vollumfänglich dem Anspruchsteller.

Vorliegend bestand die konkrete Gefahr der vertragswidrigen Löschung des Nutzerkontos der Antragsgegnerin samt aller dazugehöriger Daten. Dass die Gefahr einer Datenlöschung bestand, folgt bereits aus den oben geschilderten Standardabläufen bei der Antragsgegnerin. Auch nach der eigenen Darstellung der Antragsgegnerin werden die Daten eines – wie hier – deaktivierten Kontos „nach einer bestimmten Zeit“ (sog. „Schonfrist“) unwiderruflich gelöscht.

Diese Gefahr war vorliegend auch hinreichend unmittelbar und nicht erst in entfernter Zukunft zu besorgen. Denn aus den obigen Ausführungen ergibt sich ebenfalls, dass jedenfalls aus der maßgeblichen Sicht eines objektiven Betrachters mit jedem weiteren ablaufenden Tag das Risiko anstieg, dass es unmittelbar zu einem Datenverlust kommen würde. Dies folgt aus dem Umstand, dass sich zwar an die Deaktivierung eine „Schonfrist“ anschloss, jedoch keinerlei nachvollziehbar kommunizierten Regelungen bestanden, wie lange diese Sicherheit vor Datenverlust bieten würde. Jedenfalls aus der Sicht eines objektiven Dritten musste jederzeit damit gerechnet werden, dass die – so auch in keiner Weise kommunizierte – „Schonfrist“ enden und der Prozess der endgültigen Löschung aktiviert würde. Dieser jederzeit mögliche Löschungsprozess bot sodann keinerlei zumutbare Sicherheit mehr vor Datenverlust, da dieser zwar während einer 90-tägigen Frist noch gestoppt werden kann, es allerdings unstreitig auch während dieser 90 Tage möglich ist, dass ein Versuch der Wiederherstellung fehlschlägt und zudem bereits 14 Tage nach Einleitung des Löschvorgangs es in jedem Fall schon nicht mehr möglich ist, sämtliche Kontoinformationen wiederherzustellen.

Dem kann die Antragsgegnerin auch nicht mit durchgreifendem Erfolg entgegensetzen, sie habe gar „nicht beabsichtigt“, das Nutzerkonto der Antragstellerin und die dazugehörigen Daten vor dem rechtskräftigen Abschluss eines Hauptsacheverfahrens zu löschen. Denn jedenfalls bis zum maßgeblichen Zeitpunkt der Erledigung, mithin der Reaktivierung des Kontos am 16. Januar 2023 lag keine derartige Erklärung gegenüber der Antragstellerin vor, die geeignet gewesen wäre, die aus der maßgeblichen Sicht eines objektiven Dritten bis zur Erledigung bestehende Erstbegehungsgefahr (vgl. oben) zu widerlegen. Vielmehr hatte die Antragsgegnerin bis zu diesem Zeitpunkt insbesondere auch auf das anwaltliche Schreiben nur durch eine faktisch aussagefreie Standardemail reagiert. Die Erklärung, keine Löschung zu beabsichtigen erfolgte erst im innerprozessualen Schriftsatz vom 26. Januar 2023 nach Eintritt der erledigenden Ereignisses – und damit zu spät.

Soweit andere Gerichte der entsprechenden Aussage der Antragsgegnerin, sie habe nicht vorgehabt, die Daten zu löschen, streitentscheidende Relevanz zubilligten (vgl. etwa OLG Nürnberg, Beschluss vom 7.10.2022 – 3 U 2178/22 -, MMR 2023, 375) überzeugt dies das Gericht nicht. Maßgeblich für die Prüfung der Frage, ob eine konkrete Gefahr des Datenverlustes vorlag, ist die sich aus Sicht eines objektiven Dritten darbietende Gesamtsituation. Diese sprach hier aus den dargelegten Gründen für eine erhebliche Gefahrensituation. Was hingegen die Antragsgegnerin aufgrund nicht vorgetragener, bis zur Erledigung des Verfahrens auch nicht nach außen getretener und rein interner Willensbildungsprozesse „wirklich“ wollte, kann an dieser Sachlage nichts ändern – und ist daher von der Antragstellerin auch nicht zu widerlegen.

Die damit unmittelbar drohende Löschung der Daten wäre auch rechtswidrig gewesen. In der Rechtsprechung ist insoweit mittlerweile anerkannt, dass Facebook ein Nutzerkonto grundsätzlich nur in Ausnahmefällen ohne vorherige Abmahnung kündigen und sodann die Daten löschen darf (vgl. etwa OLG Karlsruhe, Urteil vom 4. Februar 2022 - 10 U 17/20 -, GRUR-RS 2022, 1154). Eine vorherige Abmahnung ist hier nicht erfolgt und ein Ausnahmefall liegt nicht vor. Weder kann von einer ersichtlichen Zwecklosigkeit einer Abmahnung ausgegangen werden noch liegt in dem oben dargestellten Eintrag eine derart gravierende Vertragsverletzung vor, dass eine sofortige Kündigung zulässig gewesen wäre. Insbesondere liegt auch eine Strafbarkeit des Eintrages nach § 86a StGB nicht derart auf der Hand, dass eine Kündigung ohne Abmahnung angezeigt gewesen sein könnte. § 86a StGB ist nicht einschlägig, wenn ein Hakenkreuz in einem Kontext dargestellt wird, aus dem sich die Gegnerschaft zu der zugrundeliegenden Ideologie ergibt (BeckOK StGB/Ellbogen, 57. Ed. 1.5.2023, StGB § 86a Rn. 32-35). Dies ist vorliegend jedenfalls nicht fernliegend, da sich aus dem Text unter dem verwendeten Foto ergibt, dass die Antragsgegnerin die abgebildete Fahne als für die Abgebildeten gerade diskreditierend wahrnimmt – sich selbst mithin in Gegnerschaft zu diesen stellt.

b. Es lag auch bis zum Zeitpunkt der Erledigung der für den Erlass der Anordnung erforderliche Verfügungsgrund vor.

Ein Verfügungsgrund liegt vor, wenn die objektiv begründete Gefahr besteht, dass durch Veränderung des status quo die Rechtsverwirklichung der Antragstellerin mittels des im Hauptsacheprozess erlangten Urteils einschließlich dessen Vollstreckung vereitelt oder erschwert werden könnte. Dies ist hier der Fall gewesen, da – wie sich bereits aus den obigen Ausführungen ergibt – jederzeit und mit im Zeitverlauf steigendem Risiko mit der unwiderruflichen Löschung der Daten gerechnet werden musste. Ein zeitaufwändiges Hauptsacheverfahren hätte keinesfalls mit der hinreichenden Aussicht auf Bewahrung der Daten vor Löschung betrieben werden können.

Einen Fall der Selbstwiderlegungen vermag das Gericht im Übrigen nicht zu erkennen. Ein solcher liegt nach der einschlägigen Rechtsprechung vor, wenn die Antragstellerin nach Eintritt der Gefährdung mit dem Antrag zuwartet. Wie lange die Antragstellerin dabei ohne Rechtsverlust mit dem Antrag zuwarten darf, lässt sich nicht allgemein bestimmen und hängt von der Art des Anspruchs und den Umständen des Einzelfalls ab. Für wettbewerbsrechtliche Unterlassungsansprüche wird in der Regel ein Zuwarten von einem Monat noch akzeptiert, während zwei Monate dringlichkeitsschädlich sind. Ähnliche Zeiträume werden bei Ansprüchen nach dem UrhG in der Rechtsprechung angenommen und bei Persönlichkeitsrechtsverletzungen (vgl. MüKoZPO/Drescher, 6. Aufl. 2020, ZPO § 935 Rn. 19-21).

Bei der Bemessung des hier angemessenen Zeitraumes, der vor der Inanspruchnahme gerichtlicher Hilfe ohne Rechtsverlust verstreichen kann, kommt der Antragstellerseite vorliegend ein Einschätzungsspielraum zu. Dies folgt aus dem Umstand, dass die Antragsgegnerseite zwar einerseits vorgerichtliche Abhilfemöglichkeiten anbietet (vgl. oben), die Nutzerinnen und Nutzer dann jedoch sehr weitgehend im Unklaren lässt, wie, wann und ob überhaupt hierauf reagiert wird. Hinzukommt zudem, dass keine nachvollziehbaren Informationen vorgehalten werden, wie lange die persönlichen Daten nach einer Deaktivierung des Kontos noch vor einer Löschung „sicher“ sind und wann der Löschungsprozess eingeleitet wird. In der Zusammenschau befinden sich die Nutzerinnen und Nutzer daher in der paradoxen und individuell auch nicht auflösbaren Situation, einerseits nicht zu früh – nämlich vor Ausschöpfung der plattformeigenen Abhilfemöglichkeiten - gerichtliche Hilfe in Anspruch nehmen zu sollen, andererseits hierauf keine Reaktion zu erhalten und im Hinblick auf die unklare Dauer der Schonfrist und des Beginn des Löschungsprozesses auch nicht zu wissen, wann die gerichtliche Inanspruchnahme „zu spät“ sein könnte.

Vor diesem Hintergrund hat das Gericht keinerlei Bedenken hinsichtlich der hier von der Antragstellerin gewählten zeitlichen Ablaufs, der eine angemessene und vernünftige Reaktion auf die aufgezeigte Gemengelage darstellt und daher nicht zu einem Rechtsverlust führen kann. Zwar verstrichen hier zwischen der gefahrbegründenden Deaktivierung des Kontos bis zur Inanspruchnahme gerichtlicher Hilfe ca. 7 Wochen. Dies geschah jedoch nicht durch reine Passivität der Antragstellerin, sondern ist die Folge der sinnvollen und angemessenen Nutzung der plattformeigenen Meldewege, die die Antragstellerin zu nutzen versuchte, wobei Verzögerungen vor allem dadurch eintraten, dass die Antragsgegnerin auf die Anschreiben nicht bzw. nicht angemessen einzelfallbezogen reagierte.

Die Deaktivierung erfolgte hier am 11. November 2021. Hierauf nutzte die Antragstellerin zunächst die plattformeigenen Wege der Beanstandung und wartete vernünftigerweise die Reaktion bis Ende November 2021 ab. Als keine Reaktion erfolgte, wandte sie sich Anfang Dezember an den Prozessbevollmächtigten, der sich – was ebenfalls nicht zu beanstanden ist – zunächst mit Schreiben vom 9. Dezember außergerichtlich an die Antragstellerin wandte und nun seinerseits ca. 3 angemessene Wochen auf substantielle Antwort abwartete – die nicht erfolgte. Im Anschluss stellte die Antragstellerin unverzüglich Antrag auf Erlass der begehrten Maßnahme bei Gericht.

Die Kosten waren im Rahmen des richterlichen Ermessens nach § 91 a ZPO auch nicht aus anderen Gründen den Klägern aufzuerlegen.

Das Gericht legt den Streitwert auf 10.000 EUR fest. Hierbei geht es davon aus, dass der Streitwert in einem Hauptsacheverfahren wegen der Löschung eines Facebook-Kontos und damit einhergehend aller dort enthaltenen Freundschaftsverbindungen, Follower, Posts etc. ein Streitwert von vorliegend 10.000 EUR angemessen erscheint. Hiervon hat das Gericht vorliegend keinen weiteren Abschlag vorgenommen, da Gegenstand des hiesigen Verfahrens zwar nur der Erlass einer einstweiligen Anordnung war, dessen Anlass jedoch die Befürchtung endgültigen Datenverlustes war, so dass insoweit kein erheblicher Unterschied zwischen Hauptsachestreitwert und Streitwert des einstweiligen Anordnungsverfahrens besteht (so auch OLG Stuttgart, Beschluss vom 9. August 2022 - 4 W 40/22 -, Juris).


Den Volltext der Entscheidung finden Sie hier:

EU-Kommission: Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA) - Gesetz über digitale Dienste

Die EU-Kommission hat nach den entsprechenden Benennungsbeschlüssen eine Liste der sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen im Sinne des Digital Services Act (DSA - Gesetz über digitale Dienste) veröffentlicht.

Die Pressemitteilung der EU-Kommission vom 25.04.2023:

Die Kommission hat heute die ersten Benennungsbeschlüsse im Rahmen des Gesetzes über digitale Dienste angenommen, in denen 17 sehr große Online-Plattformen (very large online platforms, VLOPs) und 2 sehr große Online-Suchmaschinen (very large online search engines, VLOSEs) benannt wurden, die monatlich mindestens 45 Millionen aktive Nutzer erreichen. Dazu gehören folgende:

Sehr große Online-Plattformen:

Alibaba AliExpress
Amazon Store
Apple AppStore
Booking.com
Facebook
Google Play
Google Maps
Google Shopping
Instagram
LinkedIn
Pinterest
Snapchat
TikTok
Twitter
Wikipedia
YouTube
Zalando
Sehr große Online-Suchmaschinen:

Bing
Google Search
Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 veröffentlichen mussten.

Nächste Schritte für benannte Plattformen und Suchmaschinen
Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten allen neuen Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen. Diese zielen darauf ab, die Handlungsfähigkeit der Nutzer, auch Minderjähriger, im Internet zu stärken und sie zu schützen, indem den benannten Diensten die Pflicht auferlegt wird, ihre systemischen Risiken zu bewerten und zu mindern sowie robuste Instrumente zur Moderation von Inhalten bereitzustellen. Dies beinhaltet Folgendes:

Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.

Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
Starker Schutz Minderjähriger:

Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.

Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
Sorgfältigere Moderation von Inhalten, weniger Desinformation:

Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.

Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.

Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.

Ein höheres Maß an Transparenz und Rechenschaftspflicht:

Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.

Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.

Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.
Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten
Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.

Risikobewertung
Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur
Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende
Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Hintergrund
Am 15. Dezember 2020 legte die Kommission ihren Vorschlag für ein Gesetz über digitale Dienste zusammen mit dem Vorschlag für ein Gesetz über digitale Märkte als umfassenden Rahmen zur Gewährleistung eines sichereren und faireren digitalen Raums für alle vor. Nach der politischen Einigung der gesetzgebenden Organe der EU im April 2022 trat das Gesetz über digitale Dienste am 16. November 2022 in Kraft.

Das Gesetz über digitale Dienste gilt für alle digitalen Dienste, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermitteln. Es schafft umfassende neue Pflichten für Online-Plattformen in Bezug auf die Schadensbegrenzung und Risikobewältigung im Internet, sieht wirksame Schutzvorkehrungen für die Nutzerrechte im Internet vor und unterwirft digitale Plattformen einem einzigartigen neuen Rahmen, der für Transparenz und Rechenschaftspflicht sorgt. Diese Vorschriften sind als einheitliches gemeinsames Regelwerk für die gesamte EU konzipiert und bieten neue Schutzmöglichkeiten für die Nutzer und Rechtssicherheit für die Unternehmen im gesamten Binnenmarkt. Das Gesetz über digitale Dienste ist das erste Regulierungsinstrument seiner Art weltweit und setzt auch international Maßstäbe für die Regulierung im Bereich der Online-Vermittler.