Skip to content

LG Kiel: Betreiber einer Online-Datenbank für Wirtschaftsinformationen haftet für falsche KI-generierte Inhalte

LG Kiel
Urteil vom 29.02.2024
6 O 151/23


Das LG Kiel hat entschieden, dass der Betreiber einer Online-Datenbank für Wirtschaftsinformationen für falsche KI-generierte Inhalte haftet.

Aus den Entscheidungsgründen:
1. Der Klägerin steht ein Unterlassungsanspruch aus §§ 1004 Abs. 1 S.2 analog, 823 Abs. 1 BGB i.V.m. Art. 2 Abs. 1, 19 Abs. 3 GG zu, dass die Beklagte es unterlässt zu behaupten, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht wird (siehe Anlage K2).

a) § 1004 BGB ist analog und das allgemeine Persönlichkeitsrecht nach Art. 19 Abs. 3 GG auch auf die Klägerin anwendbar.

Unmittelbar schützt § 1004 BGB nur das Eigentum. Wegen ähnlichen Schutzes anderer absoluter Rechte wird § 1004 BGB analog auf alle absoluten Rechte des § 823 BGB angewendet (Grüneberg BGB/ Herrler § 1004 BGB Rn. 4). Eine juristische Person kann sich auf den Ehrenschutz durch das allgemeine Persönlichkeitsrecht berufen, wenn sie dieses Rechtsschutzes aus ihrem Wesen als Zweckschöpfung des Rechts und ihren Funktionen bedarf (BGH, Urteil vom 04.04.2017 - VI ZR 123/16, Rz. 16). Geschützt wird durch Art. 2 Abs. 1, Art. 1 Abs. 1 i.V.m. Art. 19 Abs. 3 GG auch der soziale Geltungsanspruch eines Wirtschaftsunternehmens (BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 12). Als mittelständisches Wirtschaftsunternehmen lebt die Klägerin von ihrem Ruf und wird deshalb auch vom Wesensgehalt des allgemeinen Persönlichkeitsrecht nach Art. 19 Abs. 3 GG erfasst.

Die Klägerin ist in den äußerungsrechtlichen Schutzgehalten ihres Unternehmenspersönlichkeitsrechts betroffen.

Zur Erfassung des Inhalts der von der Klägerin beanstandeten Äußerung ist diese auszulegen. Maßgeblich für die Deutung einer Äußerung ist weder die subjektive Absicht des sich Äußernden noch das subjektive Verständnis des von der Äußerung Betroffenen, sondern der Sinn, den sie nach dem Verständnis eines unvoreingenommenen und verständigen Publikums hat (BVerfG, Beschluss vom 25.10.2012 - 1 BvR 901/11, Rz. 20). Auszugehen ist dabei stets vom Wortlaut der Äußerung, deren Sinn allerdings auch von dem sprachlichen Kontext, in dem die umstrittene Äußerung steht und von den erkennbaren Begleitumständen, unter denen sie fällt, bestimmt wird (BVerfG, a.a.O.). Dementsprechend ist die isolierte Betrachtung eines Äußerungsteils regelmäßig nicht zulässig (BGH, Urteil vom 16.11.2004 - VI ZR 298/03, Rz. 23). Ausgehend hiervon muss bei der Auslegung der streitgegenständlichen Mitteilung maßgeblich berücksichtigt werden, wie die Beklagte unter dem Menüpunkt „Über uns" ihren Nutzern die Herkunft der von ihr bereitgestellten Informationen erklärt (siehe Anlage T1):

XXX analysiert Handelsregisterbekanntmachungen und andere Pflichtveröffentlichungen deutscher Firmen, um Wirtschaftsinformationen zu gewinnen, insbesondere zu finanziellen Kennzahlen und zu Zusammenhängen zwischen Firmen untereinander sowie zu Personen. Dazu werden Methoden der Big-Data Verarbeitung

und der Künstlichen Intelligenz (KI) verwendet.

Demnach versteht das unvoreingenommene und verständige Publikum die Mitteilung (Anlage K2) so, dass die Klägerin eine Pflichtmitteilung hinsichtlich ihrer Löschung wegen Vermögenslosigkeit nach § 394 FamFG machen musste und entsprechend vor der Löschung steht.

Während das Recht auf informationelle Selbstbestimmung Schutz davor bietet, dass Dritte sich individueller Daten bemächtigen, und sie in nicht nachvollziehbarerweise als Instrument nutzen, um die Betroffenen auf Eigenschaften, Typen oder Profile festzulegen, auf die sie keinen Einfluss haben und die aber für die freie Entfaltung der Persönlichkeit sowie eine gleichberechtigte Teilhabe in der Gesellschaft von erheblicher Bedeutung sind, bietet das Persönlichkeitsrecht in seiner äußerungsrechtlichen Ausprägung Schutz vor den Gefährdungen, die sich für die Persönlichkeitsentfaltung aus der sichtbaren Verbreitung bestimmter Informationen im öffentlichen Raum ergeben (BVerfG, Beschluss vom 06.11.2019- 1 BvR 16/13, Rz. 89 ff.; BGH, Urteil vom 26.11.2019 - VI ZR 12/19, Rz. 27 ff.; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 15). Gegen Letzteres wendet sich die Klägerin, weil sie sie dagegen zur Wehr setzt, dass die Beklagte bei Suchanfragen nach ihr, der Klägerin, ihren Nutzern unter anderem die streitgegenständliche Mitteilung (Anlage K2) angezeigt hat.

Die Klägerin wird durch die Äußerung der Beklagten in ihrem sozialen Geltungsanspruch berührt, weil sich daraus ergibt, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht würde, was sich abträglich auf ihr Ansehen in der Öffentlichkeit und ihre Kreditwürdigkeit auswirkt. Offenbleiben kann, ob die Beklagte, wie sie meint, ein haftungsprivilegierter Host-Provider im Sinne von §§ 2, Abs. 1 Nr. 1, 10 TMG ist. Das Haftungsprivileg des § 10 Satz 1 TMG erstreckt sich nur auf die strafrechtliche Verantwortung und die Schadensersatzhaftung eines Diensteanbieters von Telemedien im Sinne von § 2 Satz 1 Nr. 1 TMG (BGH, Versäumnisurteil vom 25.10.2011- VI ZR 93/10, Rz. 19) und lässt die Möglichkeit unberührt, den Diensteanbieter wegen einer vorangegangenen Rechtsverletzung auf Unterlassung in Anspruch zu nehmen (BGH, Urteil vom 01.03.2016 - VI ZR 34/15, Rz. 19 f.).

Dieser Eingriff in das allgemeine Persönlichkeitsrecht der Klägerin ist auch rechtswidrig gewesen.

Da das Persönlichkeitsrecht ein Rahmenrecht ist, dessen Reichweite nicht absolut feststeht, kann erst durch eine Abwägung der widerstreitenden grundrechtlich geschützten Belange, bei der die besonderen Umstände des Einzelfalls sowie die betroffenen Grundrechte zu berücksichtigen sind, bestimmt werden, ob der Eingriff in das Persönlichkeitsrecht rechtswidrig gewesen ist (BGH, Urteil vom 01.03.2016 – VI ZR 34/15, Rz. 30). Nichts anderes gilt für das Recht am eingerichteten und ausgeübten Gewerbetrieb. Dieses Recht stellt einen offenen Tatbestand dar, dessen Inhalt und Grenzen sich erst aus einer Abwägung mit den im Einzelfall konkret kollidierenden Interessen anderer ergeben (BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 16). Demnach ist das durch Art. 2 Abs. 1, 12 Abs. 1 und 19 Abs. 3 GG geschützte Interesse der Klägerin an ihrer sozialen Anerkennung und wirtschaftlichen Stellung mit der in Art. 5 Abs. 1 GG verankerten Meinungsfreiheit und Kommunikationsfreiheit der Beklagten sowie ihrer durch Art. 12 Abs. 1 GG geschützten Unternehmensfreiheit abzuwägen, bei deren Einschränkung die durch Art. 5 Abs. 1 GG geschützte Meinungs- und Informationsfreiheit der Nutzer des von der Beklagten betriebenen Portals zu berücksichtigen ist (vgl. BGH, Urteil vom 27.07.2020 - VI ZR 405/18, Rz. 33 und 36).

Die Beklagte will sich zwar gar nicht auf ihre Meinungsfreiheit berufen, weil sie den Rechtsstandpunkt einnimmt, ihr sei ähnlich einem Suchmaschinenbetreiber nicht an der Verbreitung einer bestimmten Meinung, sondern nur daran gelegen, die potentiellen Interessen ihrer Nutzer möglichst optimal zu befriedigen (vgl. BVerfG, Beschluss vom 6. November 2019-1 BvR 276/17, Rz. 106). Wie jedoch bereits ausgeführt wurde, ist die streitgegenständliche Äußerung nicht mit der typischen Dienstleistung eines Suchmaschinenbetreibers vergleichbar, weil die Beklagte nach der obigen Auslegung eine eigene Stellungnahme abgegeben hat. Es würde ihren Rechtsschutz erheblich verkürzen, wenn man ihr in dieser Situation den Schutz von Art. 5 Abs. 1 GG versagen würde, nur weil sie sich darauf nicht beruft.

Eine Abwägung der widerstreitenden Interessen ist allerdings entbehrlich, wenn es sich um Schmähkritik (oder - hier gänzlich fernliegend - um eine Formalbeleidigung oder einen Verstoß gegen die Menschenwürde) handelt, weil diese am Schutz der Meinungsfreiheit nach Art. 5 Abs. 1 Satz 1 GG nicht teilhaben (BVerfG, Beschluss vom 19.05.2020 - 1 BvR 2397/19, Rz. 19 und 21). Die Mitteilung der Beklagten ist jedoch nicht als Schmähkritik zu werten.

Wegen seines die Meinungsfreiheit verdrängenden Effekts ist der Begriff der Schmähkritik eng auszulegen (BVerfG, a.a.O., Rz. 20; BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 18). Von einer Schmähung ist nur auszugehen, wenn eine Äußerung keinen irgendwie nachvollziehbaren Bezug mehr zu einer sachlichen Auseinandersetzung hat und es bei ihr im Grunde nur um das grundlose Verächtlichmachen der betroffenen Person als solcher geht (BVerfG, a.a.O., Rz. 19; BGH, Urteil vom 27.02.2018 - VI ZR 489/16, Rz. 37). Daher stellt auch eine überzogene, ungerechte oder gar ausfällige Kritik noch keine Schmähung dar (BVerfG, a.a.O., Rz. 18; BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 18). Auch bei dieser Auslegungsfrage ist die Äußerung in ihrem Gesamtzusammenhang zu betrachten (BGH, a.a.O., Rz. 19). Demnach stellt die streitgegenständliche Äußerung keine Schmähkritik dar. Die Aussage, die Klägerin würde wegen Vermögenslosigkeit nach § 394 FamFG gelöscht, kann zwar ihren sozialen Geltungsanspruch und ihre wirtschaftliche Stellung gegenüber anderen Marktteilnehmern ganz erheblich beeinträchtigen, unter Umständen sogar gefährden. Die in Rede stehende Meldung ist jedoch sachlich gehalten.


Für die demnach gebotene Abwägung ist zu berücksichtigen, dass es sich bei der Aussage um eine unwahre Tatsachenbehauptung handelt.

Tatsachen können anders als Meinungen wahr oder unwahr sein. Der Unterschied liegt in der Beziehung zwischen der Äußerung und der Realität (BVerfGE 90, 241 (247) = NJW 1994, 1779). Der Wahrheitsgehalt der Äußerung steht im Vordergrund. Hierüber kann im Wege einer Beweisaufnahme erkannt werden. Meinungen können hingegen nicht wahr oder unwahr sein, sondern zum Beispiel wahrhaftig oder unaufrichtig, überlegt oder unbedacht (BVerfGE 33, 1 (14) = NJW 1972, 811).

Die Aussage, dass der Klägerin die Löschung nach § 394 FamFG bevorsteht, ist entweder richtig oder falsch. Eine Beweisaufnahme darüber wäre denkbar. Insofern handelt es sich bei der Aussage der Beklagten um eine Tatsachenbehauptung.

Tatsachen sind nur dann grundgesetzlich geschützt, wenn sie Voraussetzung für die Bildung von Meinungen sind und zur Meinungsbildung beitragen (BVerfGE 85, 1 (15) = NJW 1992, 1439). Die Richtigkeit der Information hat Bedeutung für den grundrechtlichen Schutz, denn unwahre Äußerungen sind kein schützenswertes Gut (BVerfGE 54, 208 (219) = NJW 1980, 2072). Kennt der sich Äußernde die Unwahrheit, lügt er also bewusst, oder ist die Unwahrheit der Tatsache im Zeitpunkt der Äußerung erwiesen, entfällt grundrechtlicher Schutz, da diese Äußerungen nicht einmal vom Schutzbereich erfasst sind (BVerfGE 99, 185 (197) = NJW 1999, 1322).

Die Beklagte bediente sich einer künstlichen Intelligenz, um die Registerpublikationen auf ihrer Website zu veröffentlichen. Die Beklagte hatte damit unbestritten keine positive Kenntnis von der Unrichtigkeit der Meldung. Von dieser Tatsache hat sie erst erfahren, als die Klägerin an sie herangetreten ist (Bl. 17 d.A.).

Dass die Meldung unrichtig ist, führt die Beklagte selbst aus (Bl. 19 d.A.). Demnach lag eine Verwechslung mit der XXX, Amtsgericht XXX HRB XXX, beim Registergericht vor (XXX vs XXX).

Die zentrale Abwägung zwischen dem Persönlichkeitsrecht der Klägerin mit der Meinungsfreiheit der Beklagten ergibt ein deutliches Überwiegen auf Seiten der Klägerin.

Die streitgegenständliche Äußerung betrifft den durch Art. 2 Abs. 1, 19 Abs. 3 GG gewährleisteten sozialen Geltungsanspruch der Klägerin als Wirtschaftsunternehmen und ihr durch Art. 12, 19 Abs. 3 GG gewährleistetes Recht am eingerichteten und ausgeübten Gewerbebetrieb. Die unternehmerische Tätigkeit vollzieht sich zwar von vornherein im Kontakt mit der Umwelt. Dementsprechend muss sich ein Gewerbetreibender wertende, nicht mit unwahren Tatsachenbehauptungen verbundene Kritik an seiner gewerblichen Leistung in der Regel auch dann gefallen lassen, wenn sie scharf formuliert ist (BGH, Urteil vom 16.12.2014 – VI ZR 39/14, Rz. 21). Allerdings muss der Gewerbetreibende nicht hinnehmen, dass seine wirtschaftliche Stellung durch falsche Tatsachenbehauptungen geschwächt wird. Dies gilt insbesondere für die streitgegenständliche Äußerung, weil die falsche Meldung, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht würde, jemanden ernstlich davon abhalten kann, mit der Klägerin in geschäftlichen Kontakt zu treten. Berücksichtigt werden muss dabei, dass die Beklagte bei Suchanfragen zum Namen der Klägerin an zweiter Stelle, also besonders prominent, auftaucht und damit ein breites an der Klägerin interessiertes Publikum erreicht (Anlage K5). Der Eingriff in das Schutzrecht ist entsprechend erheblich, die Interessen der Beklagten müssen hinter denen der Klägerin zurücktreten.

b) Die Beklagte ist unmittelbare Störerin im Sinne von § 1004 Abs. 1 BGB. Als Störer ist, unabhängig von einem Verschulden, jeder anzusehen, der die Störung adäquat kausal herbeigeführt hat oder dessen Verhalten eine Beeinträchtigung befürchten lässt (Grüneberg BGB/ Herrler § 1004 BGB Rn. 16 f.; BGH NZM 19, 893 Tz. 15). Auch der mittelbare Störer ist von der Norm umfasst, der in irgendeiner Weise willentlich und adäquat kausal an der Herbeiführung der rechtswidrigen Beeinträchtigung mitgewirkt hat (BGH, Urteil vom 28.07.2015 – VI ZR 340/14, Rz. 34).

Die Klägerin ist jedoch als unmittelbare Störerin anzusehen, weil sie sich willentlich zur Beantwortung von Suchanfragen einer eigenen Software bedient, die Informationen aus den veröffentlichten Pflichtmitteilungen extrahiert und aufbereitet veröffentlicht. Die Beklagte kann sich nicht darauf zurückziehen, sie sei an diesem automatischen Vorgang nicht beteiligt gewesen, weil sie sich bewusst zur Beantwortung von Suchanfragen ihrer Nutzer einer künstlichen Intelligenz bedient hat, die in Fällen wie diesem unzulänglich programmiert war, weil sie nicht erkannt hat, dass vorliegend die XXX, Amtsgericht XXX HRB XXX, gemeint war und ein Zuordnungsfehler (XXX vs XXX) vorlag (so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 19). Zum anderen haftet der Betreiber eines Portals auch dann als unmittelbarer Störer für die von einem Dritten eingestellten Inhalte, wenn er sich diese aus Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu eigen gemacht und dafür nach außen erkennbar die inhaltliche Verantwortung übernommen hat (BGH, Urteil vom 01.03.2016 – VI ZR 34/15, Rz. 17; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 19). Dies schafft die Beklagte dadurch, dass sie die Pflichtveröffentlichungen zu einem Unternehmen bei sich auf der Seite bündelt und die Informationen teilweise untereinander verknüpft.

c) Eine Wiederholungsgefahr liegt vor.

Diese liegt vor, wenn es die auf Tatsachen gegründete objektive ernstliche Besorgnis weiterer Störungen gibt. In der Regel begründet die vorangegangene rechtswidrige Beeinträchtigung eine tatsächliche Vermutung für die Wiederholungsgefahr (BGH NJW 12, 3781; Grüneberg BGB/ Herrler § 1004 BGB Rn. 32), an deren Wiederlegung durch den Störer hohe Anforderungen zu stellen sind (BGH NJW 99, 356).

Die aus der rechtswidrigen Beeinträchtigung folgende Vermutung konnte die Beklagte bisher nicht entkräften. Ihr Verweis, dass sie lediglich fremde Daten aus Pflichtveröffentlichungen ohne Prüfung veröffentliche, bekräftigt sogar die Wiederholungsgefahr. Denn die Pflichtinformationen sind nach Aussage der Beklagten, die sich auf das elektronische Handelsregister bezieht, unzuverlässig, sodass es „zu falschen Anzeigen kommt“ (Bl. 19 d.A.). Insofern kann nicht ausgeschlossen werden, dass der gleiche Fehler (Verwechslung XXX vs. XXX) erneut auftritt.

d) Eine den Unterlassungsanspruch ausschließende Duldungspflicht nach § 1004 Abs. 2 BGB kommt vorliegend nicht in Betracht.

2. Der von der Klägerin angekündigte Unterlassungsantrag ist insoweit unbegründet, als dass es auch zukünftige Informationsveröffentlichungen durch die Beklagte einbezieht, die sich nicht auf die vermeintliche Löschung der Klägerin nach § 394 FamFG beziehen.

Das Persönlichkeitsrecht ist ein Rahmenrecht, dessen Reichweite erst durch die Abwägung der betroffenen grundrechtlich geschützten Interessen bestimmt wird und dementsprechend ein aus dem Persönlichkeitsrecht abgeleitetes Gebot, eine Äußerung zu unterlassen, auf die konkrete Verletzungsform beschränkt werden muss, damit die wesentlichen abwägungsrelevanten Gesichtspunkte, die zur Rechtswidrigkeit der Äußerung geführt haben, in die Rechtskraft der Entscheidung miteinbezogen werden (vgl. BGH, Urteil vom 04.12.2018 - VI ZR 128/19, Rz. 19; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 17).

3. Die Klägerin hat gegen die Beklagte einen Anspruch auf Ersatz der vorgerichtlichen Rechtsverfolgungskosten in Höhe des Obsiegens von 527,00 € gemäß §§ 280 Abs. 2, 286 Abs. 1 BGB.

Das Schuldverhältnis ergibt sich aus der Verletzung des allgemeinen Persönlichkeitsrechts der Klägerin gemäß § 823 Abs. 1 BGB.

Angemahnt wurde die Beklagte durch die Klägerin mit Fristsetzung am 21.07.2023, die daraufhin zwar die Meldung von ihrer Website entfernte, jedoch die Unterlassungserklärung nicht unterschrieben hat. Angesichts des erheblichen Eingriffs in das allgemeine Persönlichkeitsrecht der Klägerin war das Tätigwerden eines Rechtsanwalts auch erforderlich.

Die Klägerin kann jedoch die Umsatzsteuer in Höhe von 100,13 € nicht von der Beklagten verlangen. Die Klägerin ist nämlich vorsteuerabzugsberechtigt gemäß § 15 Abs. 1 S. 1 Nr. 1 UstG.Nach § 15 Abs. 1 S. 1 Nr. 1 UStG kann der Unternehmer die gesetzlich geschuldete Steuer für Lieferungen und sonstige Leistungen, die von einem anderen Unternehmer für sein Unternehmen ausgeführt worden sind, als Vorsteuer abziehen, wenn er eine nach den §§ 14, 14a UStG ausgestellte Rechnung besitzt. Auf der Rechnung des Prozessbevollmächtigten der Klägerin ist zwar ein Umsatzsteuerbetrag in Höhe von 155,46 € aufgeführt. Die Klägerin ist jedoch als GmbH Unternehmerin im Sinne des § 2 Abs. 1 S. 1 UStG. Die Beauftragung des Rechtsanwalts erfolgte für das Unternehmen nach § 15 Abs. 1 S. 1 UStG, da eine Unterlassung aufgrund einer Rechtsverletzung aufgrund ihres Unternehmenspersönlichkeitsrechts begehrt wird. Nach dem schadensrechtlichen Bereicherungsverbot soll der Geschädigte über den Schadensersatz keine Bereicherung erlangen. Den in der Abzugsmöglichkeiten liegenden Vorteil muss sich der Geschädigte auf den Schaden anrechnen lassen (BGH, Urteil vom 18.3.2014 – VI ZR 10/13 Rz. 17).


Den Volltext der Entscheidung finden Sie hier:

Verbotene Praktiken nach Art. 5 der KI-Verordnung - Manipulative KI-Systeme - Ausnutzung der Schwächen von Personengruppen - Social Scoring - Biometrische Fernidentifizierung im öffentlichen Raum

Mit Inkrafttreten der Verordnung (EU) 2024/1689 zur Regulierung von Künstlicher Intelligenz (KI-Verordnung) hat die Europäische Union einen neuen regulatorischen Rahmen geschaffen, um die Nutzung von KI-Systemen zu steuern und Risiken für Sicherheit, Gesundheit und Grundrechte zu minimieren. Die Verordnung basiert auf einem risikobasierten Ansatz und enthält klare Vorgaben für den Einsatz von KI-Systemen. Im Mittelpunkt steht dabei die Unterscheidung zwischen verschiedenen Risikokategorien, wobei die gefährlichsten KI-Praktiken vollständig verboten sind.

Artikel 5 der KI-Verordnung benennt abschließend bestimmte verbotene KI-Praktiken. Diese Praktiken gelten als so schwerwiegend, dass ihr Einsatz unabhängig vom Verwendungszweck oder der jeweiligen Branche vollständig untersagt ist. Unternehmen, die solche KI-Systeme entwickeln oder einsetzen, müssen mit erheblichen Sanktionen rechnen. In diesem Beitrag wird detailliert erläutert, wann verbotene KI-Praktiken vorliegen, welche Vorschriften dies regeln und welche rechtlichen Konsequenzen dies für Unternehmen hat.

I. Wann liegen verbotene KI-Praktiken vor?
Die KI-Verordnung unterscheidet in Artikel 5 zwischen verschiedenen KI-Praktiken, die per se verboten sind, da sie gegen fundamentale Rechte und Werte verstoßen oder erhebliche Risiken für die öffentliche Sicherheit darstellen. Diese Praktiken sind abschließend aufgelistet und umfassen folgende Hauptkategorien:

1. Manipulative KI-Systeme
Artikel 5 Abs. 1 lit. a verbietet den Einsatz von KI-Systemen, die durch unterbewusste Techniken das Verhalten von Personen in einer Weise manipulieren, dass dies zu physischen oder psychischen Schäden führt. Ziel dieser Vorschrift ist der Schutz der Autonomie und des freien Willens von Individuen. Manipulative Systeme, die gezielt unterbewusste Techniken nutzen, um Menschen zu bestimmten Handlungen zu verleiten, stellen ein erhebliches Risiko dar.

Beispielsweise könnte ein KI-System, das unbewusst Kaufentscheidungen beeinflusst oder Menschen zu gesundheitsschädlichem Verhalten verleitet, unter diese Kategorie fallen. Ein solches System würde das Risiko mit sich bringen, dass die betroffene Person gegen ihren Willen zu Handlungen gedrängt wird, die ihr schaden.

2. Ausnutzung von Schwächen bestimmter Personengruppen
Nach Artikel 5 Abs. 1 lit. b ist der Einsatz von KI-Systemen verboten, die die besonderen Schwächen bestimmter Personengruppen ausnutzen, wie z. B. Kinder oder Menschen mit Behinderungen. Diese Vorschrift zielt auf den Schutz besonders schutzbedürftiger Gruppen ab, die durch KI-Systeme besonders leicht zu manipulieren oder zu beeinflussen sind.

Ein Beispiel wäre eine KI, die Kinder gezielt dazu verleitet, exzessiv Videospiele zu spielen oder Käufe zu tätigen, indem sie deren mangelnde kognitive Reife oder emotionale Schwächen ausnutzt.

3. KI-Systeme zur sozialen Bewertung (Social Scoring)
Artikel 5 Abs. 1 lit. c verbietet den Einsatz von KI-Systemen durch Behörden zur Bewertung des Verhaltens von Bürgern über einen längeren Zeitraum hinweg und zur Vergabe von sozialen Vorteilen oder Nachteilen (sogenanntes „Social Scoring“). Ein solches System könnte dazu führen, dass Personen aufgrund ihres Verhaltens oder anderer Kriterien in diskriminierender Weise behandelt werden.

Ein bekanntes Beispiel hierfür ist das Social Credit System, das in einigen Staaten zur Bewertung des Verhaltens von Bürgern eingesetzt wird. Dieses Vorgehen birgt das Risiko, dass soziale, wirtschaftliche oder rechtliche Entscheidungen auf Grundlage ungenauer oder unverhältnismäßiger Bewertungen getroffen werden.

4. Biometrische Fernidentifizierung im öffentlichen Raum
Artikel 5 Abs. 1 lit. d der KI-Verordnung untersagt den Einsatz von KI-Systemen zur biometrischen Fernidentifizierung in Echtzeit in öffentlichen Räumen, es sei denn, sie sind ausdrücklich durch das Recht der Union oder der Mitgliedstaaten erlaubt. Derartige Systeme, wie beispielsweise Gesichtserkennungstechnologien, können eine massive Überwachung ermöglichen und das Recht auf Privatsphäre erheblich einschränken.

Ausnahmen bestehen nur in streng geregelten Fällen, etwa bei der Verhinderung schwerer Straftaten oder zur Terrorismusbekämpfung, und müssen von den zuständigen Behörden genehmigt werden.

II. Rechtliche Konsequenzen für Unternehmen
Für Unternehmen, die verbotene KI-Praktiken anwenden, hat die Nichteinhaltung der Vorschriften schwerwiegende Folgen. Die Verordnung sieht umfassende Sanktionen vor, die insbesondere in Artikel 71 geregelt sind.

1. Bußgelder
Verstöße gegen Artikel 5 der KI-Verordnung können mit erheblichen Bußgeldern geahndet werden. Artikel 71 Abs. 3 legt fest, dass Unternehmen bei Verstößen gegen die Verbotsvorschriften Geldbußen von bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes des Unternehmens zu zahlen haben, je nachdem, welcher Betrag höher ist. Diese hohen Bußgelder unterstreichen den Stellenwert der Verordnung und die Schwere von Verstößen.

Diese Sanktionen stehen in ihrer Höhe den Bußgeldern der Datenschutz-Grundverordnung (DSGVO) nahe und verdeutlichen die Entschlossenheit der EU, die Einhaltung der Vorschriften durchzusetzen.

2. Betriebseinstellungen und Vertriebsverbote
Neben Bußgeldern kann die zuständige Aufsichtsbehörde gemäß Artikel 71 Abs. 4 auch andere Sanktionen verhängen, darunter:

Einstellung des Betriebs eines KI-Systems, das gegen die Verbote verstößt,
Rückruf von Produkten, die verbotene KI-Systeme enthalten,
Verbot des Inverkehrbringens oder der Bereitstellung von solchen Systemen auf dem europäischen Markt.
Diese Maßnahmen können für Unternehmen besonders schwerwiegend sein, da sie direkt den Fortbestand des Geschäftsmodells oder den Einsatz von innovativen Technologien betreffen.

3. Haftung für Schäden
Unternehmen, die verbotene KI-Systeme einsetzen, können zudem zivilrechtlich für Schäden haftbar gemacht werden, die durch den Einsatz solcher Systeme verursacht wurden. Dies ergibt sich aus den allgemeinen Haftungsvorschriften im Zivilrecht, aber auch aus der DSGVO, sofern personenbezogene Daten betroffen sind. Geschädigte Personen haben das Recht, auf Schadensersatz zu klagen, insbesondere wenn durch den Einsatz eines verbotenen KI-Systems ihre Grundrechte verletzt wurden.

III. Praktische Herausforderungen für Unternehmen
Die Implementierung der Vorschriften der KI-Verordnung erfordert von Unternehmen erhebliche Anstrengungen. Insbesondere die Einhaltung der Verbote nach Artikel 5 stellt Unternehmen vor praktische Herausforderungen:

1. Risikoabschätzung und Compliance
Unternehmen müssen sicherstellen, dass ihre KI-Systeme im Einklang mit den Verboten stehen. Hierzu sind umfassende Risikomanagement-Systeme erforderlich, die mögliche Risiken von KI-Anwendungen erfassen und geeignete Maßnahmen zur Vermeidung von Verstößen festlegen. Da KI-Systeme oft komplex und schwer durchschaubar sind, müssen Unternehmen sicherstellen, dass sie die Funktionsweise ihrer Systeme genau kennen und regelmäßig überprüfen.

2. Interne Kontrollen und Prüfmechanismen
Ein wichtiger Bestandteil der Compliance-Strategie ist die Implementierung von internen Prüfmechanismen, die sicherstellen, dass verbotene KI-Praktiken nicht unbewusst in die Unternehmensprozesse eingebaut werden. Dies erfordert insbesondere regelmäßige Audits und die Einrichtung von Kontrollinstanzen innerhalb des Unternehmens, etwa durch Ethik- oder Datenschutzbeauftragte, die den Einsatz von KI-Systemen überwachen.

3. Schulung und Sensibilisierung der Mitarbeiter
Da KI-Systeme oft tief in den Unternehmensprozessen verankert sind, ist es notwendig, die Mitarbeiter regelmäßig zu schulen und für die rechtlichen Anforderungen zu sensibilisieren. Dies gilt insbesondere für Entwickler und Anwender von KI-Systemen, die für die Einhaltung der Vorschriften verantwortlich sind.

Fazit
Artikel 5 KI-Verordnung soll sicherstellen, dass besonders gefährliche und ethisch bedenkliche KI-Praktiken vollständig verboten werden. Für Unternehmen ist die Einhaltung dieser Verbote von entscheidender Bedeutung, da Verstöße nicht nur zu erheblichen Bußgeldern, sondern auch zu Betriebsverboten und anderen schwerwiegenden Konsequenzen führen können.

Unternehmen müssen daher umfassende Compliance-Strategien entwickeln, um sicherzustellen, dass ihre KI-Systeme im Einklang mit der Verordnung stehen. Besonders im Hinblick auf die verbotenen Praktiken erfordert dies ein hohes Maß an Transparenz und interne Prüfmechanismen, um die Risiken, die von der Nutzung von KI ausgehen, wirksam zu kontrollieren. Rechtsprechung und Aufsichtspraxis werden zeigen, wie streng die Vorschriften der KI-Verordnung durchgesetzt werden. Ein Blick in die Vergangenheit zeigt, dass sich immer Gerichte und Aufsichtsbehörden finden, welche einen besonder strengen Maßstab bei der Auslegung rechtliche Vorgaben anglegen.


LAG Berlin-Brandenburg: Biometrisches Zeiterfassungsystem im Regelfall nicht erforderlich im Sinne von Art. 9 Abs. 2 lit. b DSGVO und § 26 Abs. 3 BDSG

LAG Berlin-Brandenburg
Urteil vom 04.06.2020
10 Sa 2130/19


Das LAG Berlin-Brandenburg hat entschieden, dass ein biometrisches Zeiterfassungsystem im Regelfall nicht erforderlich im Sinne von Art. 9 Abs. 2 lit. b DSGVO und § 26 Abs. 3 BDSG ist.

Aus den Entscheidungsgründen:

Die Berufung ist zwar zulässig, aber nicht begründet. Denn der Beklagten ist es nicht gelungen darzulegen, dass der Kläger mit dem in den drei Abmahnungen gerügten Verhalten seine arbeitsvertraglichen Pflichten verletzt hat. Im Ergebnis und auch in der Begründung ist keine andere Beurteilung als in erster Instanz gerechtfertigt. Das Landesarbeitsgericht folgt dem Arbeitsgericht Berlin hinsichtlich der Begründung und sieht insoweit gemäß § 69 Abs. 2 ArbGG von einer nur wiederholenden Begründung ab. Die Angriffe der Berufung sind nicht geeignet, die Rechtslage anders zu beurteilen.

1. Minutien sind entgegen der von der Beklagten in der Berufungsverhandlung geäußerten Ansicht biometrische Daten. Minutien sind zwar „nur“ Fingerlinienverzweigungen, so dass der dazu gehörige Fingerabdruck nicht „als Ganzes“ verarbeitet wird. Nach Art. 4 Nr. 14 der europäischen Datenschutzgrundverordnung (DSGVO) sind biometrische Daten aber alle mit speziellen technischen Verfahren gewonnene personenbezogene Daten u.a. zu den physischen und physiologischen Merkmalen einer natürlichen Person, die die eindeutige Identifizierung dieser natürlichen Person ermöglicht oder bestätigt. Das ist bei Minutien der Fall.

2. Die Beklagte verkennt mit ihrer Argumentation in der Berufung den Regelungsgehalt der DSGVO. Wie das Arbeitsgericht bereits hervorgehoben hat, regelt Art. 9 Abs. 1 DSGVO ausdrücklich, dass die Verarbeitung von biometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person untersagt ist. Von diesem Grundsatz lässt Art. 9 Abs. 2 DSGVO zwar, wie das Arbeitsgericht auch ausgeführt hat, einzelne Ausnahmen zu. Im hiesigen Fall kommt allein die Ausnahme nach Art. 9 Abs. 2 lit. b DSGVO in Betracht. Danach muss die Verarbeitung erforderlich sein, damit die Beklagte oder der Kläger die ihnen aus dem Arbeitsrecht erwachsenden Rechte ausüben und ihren diesbezüglichen Pflichten nachkommen können, soweit dies nach Unionsrecht, nach nationalem Recht oder nach einer Kollektivvereinbarung zulässig ist.

2.1 Nach der jüngsten Rechtsprechung des Europäischen Gerichtshofs (EuGH) vom 14. Mai 2019 in der Rechtssache C-55/18, die zum Zeitpunkt der hier streitigen Abmahnungen noch nicht bekannt war, gebieten die Art. 3, 5 und 6 der Richtlinie 2003/88/EG des Europäischen Parlaments und des Rates vom 4. November 2003 über bestimmte Aspekte der Arbeitszeitgestaltung im Licht von Art. 31 Abs. 2 der Charta der Grundrechte der Europäischen Union sowie von Art. 4 Abs. 1, Art. 11 Abs. 3 und Art. 16 Abs. 3 der Richtlinie 89/391/EWG des Rates vom 12. Juni 1989 über die Durchführung von Maßnahmen zur Verbesserung der Sicherheit und des Gesundheitsschutzes der Arbeitnehmer bei der Arbeit, dass Arbeitgeber ein System einrichten, mit dem die von einem jeden Arbeitnehmer geleistete tägliche Arbeitszeit gemessen werden kann.

Die Beklagte hat zwar als das wesentliche Ziel der Einführung des Zeiterfassungssystems Model „ZEUS“ der Firma I. GmbH nebst einem Terminal „IT 8200 FP“ die Verhinderung von Arbeitszeitmanipulationen angegeben und nicht die Sicherstellung von gerechten und angemessenen Arbeitsbedingungen, wie Art. 31 GRCh das insbesondere durch eine Begrenzung der Höchstarbeitszeit und die Einhaltung der täglichen und wöchentlichen Ruhezeiten vorsieht. Aber dennoch ist ein Arbeitgeber nach den im vorhergehenden Absatz genannten Normen verpflichtet, ein objektives, verlässliches und zugängliches System, mit dem die von einem jeden Arbeitnehmer geleistete tägliche Arbeitszeit gemessen werden kann, einzurichten.

Es ist aber nicht ersichtlich, dass ein objektives, verlässliches und zugängliches System der Verarbeitung biometrischer Daten des Klägers (oder anderer Mitarbeitender) bedarf. In der Rd.-Nr. 63 der EuGH-Entscheidung vom 14. Mai 2019 hat der Gerichtshof ausdrücklich auf die Rd.-Nrn. 85-88 der Schlussanträge des Generalanwalts Bezug genommen. Dieser hat dort in Rd.-Nr. 87 ausdrücklich ausgeführt:

Insoweit ist darauf hinzuweisen, dass die derzeitige Technologie die verschiedensten Systeme zur Erfassung der Arbeitszeit ermöglicht (Aufzeichnungen in Papierform, Computerprogramme, elektronische Zeitausweise).

Zwar erlaubt Art. 88 DSGVO zusätzliche nationale Regelungen zur Datenverarbeitung im Beschäftigungskontext. Davon hat der deutsche Gesetzgeber mit § 26 BDSG Gebrauch gemacht. Aber auch für die Verarbeitung von Daten im Beschäftigungskontext gelten zunächst die allgemeinen Regelungen der DSGVO. Die Öffnungsklausel in Art. 88 DSGVO ist keine Bereichsausnahme in dem Sinn, dass der Anwendungsbereich der Verordnung per se eingeschränkt wäre (vgl. etwa Nolte in Kommentar zur Datenschutzgrundverordnung, hrsg. von Gierschmann u.a., Art. 88 RN 9). Der Maßstab bei der Verarbeitung biometrischer Daten ist im Beschäftigungskontext kein anderer als außerhalb des Beschäftigungskontexts (Nolte, ebenda RN 13). Art. 88 DSGVO erlaubt nur eine Konkretisierung oder Präzisierung, nicht jedoch ein Abweichen oder Verändern (Nolte, ebenda RN 19 m.w.N.).

2.2 In einem zweiten Schritt ist deshalb zu prüfen, ob die Verarbeitung biometrischer Daten des Klägers bei der Zeiterfassung „erforderlich“ ist, damit die Beklagte bzw. der Kläger ihre Rechte ausüben oder ihren Pflichten nachkommen können. In der Gesetzesbegründung zu § 26 BDSG hat der deutsche Gesetzgeber festgehalten, dass im Rahmen der Erforderlichkeitsprüfung die widerstreitenden Grundrechtspositionen zur Herstellung praktischer Konkordanz abzuwägen seien. Dabei seien die Interessen des Arbeitgebers an der Datenverarbeitung und das Persönlichkeitsrecht des Beschäftigten zu einem schonenden Ausgleich zu bringen, der beide Interessen möglichst weitgehend berücksichtige (BT-Drs. 18/11325, S. 97).

Zusätzlich zur Verhältnismäßigkeitsprüfung im Rahmen der Erforderlichkeit darf kein Grund zu der Annahme bestehen, dass die schutzwürdigen Interessen der betroffenen Beschäftigten die Interessen des verantwortlichen Arbeitgebers an der Verarbeitung überwiegen (BT-Drs. 18/11325, S. 98). Erst wenn also diese Erforderlichkeit und die Feststellung, dass schutzwürdige Interessen der Betroffenen nicht entgegenstehen grundsätzlich bejaht werden sollten, kommt es auf die von der Beklagten auch angegebenen „geeigneten Garantien für die Grundrechte und die Interessen der betroffenen Person“ an, also technische und organisatorische Vorkehrungen wie z.B. Anonymisierung, Pseudonymisierung und Zugriffsbeschränkungen auf die biometrischen Daten des Klägers.

„Erforderlich“ ist ein technisches System, das das Persönlichkeitsrecht eines Menschen berührt, nur dann, wenn ein legitimer Zweck verfolgt wird und zur Erreichung dieses Zwecks kein gleich wirksames und das Persönlichkeitsrecht weniger einschränkende Mittel zur Verfügung steht (BAG vom 25. April 2017 – 1 ABR 46/15). Auch das hat das Arbeitsgericht zutreffend seiner Entscheidung zugrunde gelegt.

Die Beklagte hat in der Berufungsbegründung auf Seite 10, wenn auch vielleicht versehentlich, ausdrücklich angegeben, dass es neben dem Terminal „IT 8200 FP“ für das Zeiterfassungssystem Model „ZEUS“ der Firma I. GmbH auch ein Terminal mit der Bezeichnung „IT 8200“ gibt. Dabei handelt es sich um ein Ausweisleser-System, also ein System ohne Nutzung biometrischer Daten des Klägers, was eine Internetrecherche bestätigt hat. Dieses ist mit Chipkarten und Transpondern und anderen lesbaren Ausweisen zu betreiben.

2.2.1 Die Beklagte hat angeführt, dass das Zeiterfassungssystem im Betrieb (mit biometrischen Daten u.a. des Klägers) zu betreiben sei, weil in diesem System bereits die Soll-Arbeitszeiten hinterlegt seien, die zuvor in dem Papiersystem regelmäßig und nicht nachvollziehbar verlängert oder reduziert worden seien. Diese Funktionalität wäre mit dem Terminal IT 8200 ebenso vollständig nutzbar, ohne biometrische Daten des Klägers zu verarbeiten.

2.2.2 Die Beklagte hat weiter ausgeführt, dass der bundesweit tätige Konzern, dem die Beklagte angehöre, eine einheitliche Erfassung der Anwesenheitszeiten mittels Fingerabdruckscanner wünsche. Das Personal werde über die Konzernpersonalabteilung einheitlich gesteuert. Das sei ein legitimes Interesse und auch im Interesse der Mitarbeitenden, denen Aufstiegschancen im Konzern ermöglicht würden. Auch wenn nicht ganz verständlich ist, weshalb für die Aufstiegschancen von Beschäftigten die Anwesenheitszeiten relevant sind, könnte dieser Effekt jedenfalls auch mit dem Terminal IT 8200 ebenso erreicht werden.

2.2.3 Die Beklagte hat auch als legitimes Interesse angeführt, dass die Zeiterfassung mittels Fingerscanner auf Dauer preiswerter sei als die Pflege eines Chipkartensystems, welches bei Kartenverlust ausgetauscht bzw. neu programmiert werden müsse. Nähere Angaben zur Kalkulation der beiden Varianten hat die Beklagte nicht vorgetragen, obwohl der Kläger in der Berufungserwiderung vom 23. März 2020 ausdrücklich bestritten hat, dass ein Fingerabdrucksystem preiswerter und längerfristig günstiger zu betreiben sei als ein chipkartengesteuertes System. Deshalb kann mangels entsprechendem Tatsachenvortrag der Beklagten in diesem Verfahren dahinstehen, ob und gegebenenfalls welche Kostenersparnis die Verarbeitung biometrischer Daten eines Beschäftigten rechtfertigen könnte.

2.2.4 Ein weiteres Interesse am Einsatz des Systems hat die Beklagte damit angegeben, dass auch beim Vergessen und Verlieren der Chipkarte die Arbeitszeit nicht fehlerfrei erfassbar sei. Dazu hat die Beklagte aber selbst bereits in einer Informationsmail vom 27. Juli 2018 an die Beschäftigten angenommen, dass es auch bei dem Terminal IT 8200 FP Situationen des Nichtfunktionierens geben könne. Dort hatte die Beklagte ausdrücklich ausgeführt:

„Sollte die Zeiterfassung mal nicht funktionieren, schreibt Euch bitte die Arbeitszeiten auf. Diese werden dann nachträglich im System eingepflegt. Doreen wird sich zukünftig um diese Aufgaben kümmern …“

Selbst wenn die Beklagte davon ausgehen sollte, dass Beschäftigte der Beklagten in relevantem Umfang Chipkarten vergessen oder verlieren würden, hätte es die Beklagte in der Hand, durch den Einsatz kleinerer Transponder, die man mit dem Schlüsselbund verbinden könnte, das Risiko des Vergessen und Verlierens erheblich zu minimieren. Im Übrigen erschließt sich für das Berufungsgericht nicht, weshalb bei einem technischen Versagen des Systems die händische Aufzeichnung ausreichen soll, bei einem menschlichen Versagen (des Systems) aber nicht. Im Übrigen wäre es der Beklagten natürlich auch nicht verwehrt, ein tatsächliches Fehlverhalten des Klägers zu sanktionieren. Da der Kläger seine Arbeit zusammen mit anderen Beschäftigten (und Patienten) erledigt, ist nicht ersichtlich, dass etwaige Arbeitszeitmanipulationen im Betrieb auch ohne dauernd anwesende Praxismanager unentdeckt bleiben würden.

2.2.5 Weitere Aspekte für das System der Verarbeitung biometrischer Daten des Klägers hat die Beklagte mit dem Umstand benannt, dass sensible Gesundheitsdaten bei der Beklagten verwahrt würden. Deshalb müsse sie fälschungssicher feststellen können, welche Mitarbeitende sich zu welcher Zeit tatsächlich in den Praxisräumen aufgehalten hätten.

Abgesehen davon, dass die Beklagte keinerlei Tatsachen vorgetragen hat, nach denen der Kläger oder andere Mitarbeitende ein Risiko für sensible Gesundheitsdaten der Patienten darstellen würden, ist davon auszugehen, dass die Beklagte die Gesundheitsdaten der Patienten, die ebenso wie die biometrischen Daten des Klägers als besondere Kategorien von Art. 9 DSGVO erfasst sind, nicht offen in den Praxisräumen verwahrt, sondern diese auch noch gegen unberechtigte Zugriffe innerhalb der Praxisräume gesichert hat. Aber auch unabhängig davon erschließt sich nicht, inwiefern ein fälschungssicheres Zeiterfassungssystem die Patientendaten in den Praxisräumen besonders schützen würde. Weder hat die Beklagte die Art und Weise der Aufbewahrung der Patientendaten näher dargelegt noch inwieweit diese gefährdet sind. Selbst wenn das aber der Fall wäre, wäre allenfalls ein Zugangskontrollsystem geeignet, ein Betreten der Praxisräume zu dokumentieren. Ein Zeiterfassungssystem, das (nur) die berechtigte Anwesenheit dokumentiert, ist dafür ungeeignet. Insofern ist der Vortrag der Beklagten zum Schutz der Patientendaten nicht geeignet, berechtigte Interessen an der Verarbeitung biometrischer Daten des Klägers zu begründen.

2.2.6 Schließlich hat die Beklagte angegeben, das angesichts der Infektionsrisiken eine genaue Zeiterfassung erforderlich sei, um Infektionsketten aufklären zu können. Das diene dem Schutz der übrigen Mitarbeitenden und der Patienten. Das Bundesarbeitsgericht hat aber entschieden, dass Gefährdungen bei der Arbeit entweder feststehen oder im Rahmen einer Gefährdungsbeurteilung nach § 5 ArbSchG (bzw. § 4 BioStoffVO oder § 6 GefStoffVO) ermittelt sein müssen, um erforderliche Maßnahmen daraus abzuleiten (BAG vom 28. März 2017 – 1 ABR 25/15). Zwar handelte es sich insoweit um eine Entscheidung über die Reichweite der Befugnisse einer Einigungsstelle nach § 76 BetrVG. Da aber die Mitbestimmung im Bereich des § 87 Abs. 1 Nr. 7 BetrVG nur einsetzt, wenn für einen Arbeitgeber eine Handlungspflicht besteht, gelten diese Grundsätze in einem Betrieb ohne Betriebsrat ebenso. Die Beklagte hat aber weder Tatsachen vorgetragen, aus denen sich feststehende Gefährdungen ergeben, die als erforderliche Maßnahme im Sinne des § 3 ArbSchG die Aufklärung einer Infektionskette erfordern würden, noch hat die Beklagte das Ergebnis einer Gefährdungsbeurteilung vorgetragen, das als erforderliche Maßnahme die Aufklärung einer Infektionskette erfordern würde.

2.2.7 Danach verbleibt allein das Verlangen der Beklagten, jegliche Manipulation bei der Zeiterfassung auszuschließen. Zutreffend weist die Beklagte darauf hin, dass ein Arbeitgeber nicht erst in gewissem Umfang missbräuchliche Eingaben der Arbeitszeit dulden müsse, bevor er ein fälschungssicheres Zeiterfassungssystem zur Anwendung bringen dürfe. Allerdings hat die Beklagte aufgrund des grundsätzlichen Verbots der Verarbeitung biometrischer Daten sowohl nach Art. 9 Abs. 2 lit. b DSGVO wie auch nach § 26 Abs. 3 BDSG die Erforderlichkeit der Verarbeitung biometrischer Daten anhand von Tatsachen darzulegen.

2.2.7.1 Die Beklagte hat vorgetragen, dass aufgrund der Erfahrungen mit dem analogen Papier-Dienstplan in Berlin zu erwarten sei, dass die Manipulation der Dienstzeiterfassung per Chipkarte fortgesetzt werde, da dieses technisch ebenso einfach sei. Dem vermag das Berufungsgericht nicht zu folgen. Denn eine Papierdokumentation lässt sich jederzeit durch Überschreibung, Ergänzung und/oder Löschung mittels Korrekturflüssigkeit verändern. Das elektronische System „ZEUS“ der Firma I. GmbH speichert auch ohne biometrische Daten des Klägers soweit ersichtlich die jeweiligen Buchungen, so dass jederzeit nachvollziehbar ist, wann welche Erfassung vorgenommen worden ist.

2.2.7.2 Richtig ist der Vortrag der Beklagten, dass es bei einem Zeiterfassungssystem mittels Chipkarten- oder Transpondersystem nicht ausgeschlossen ist, dass Beschäftigte ihre Anwesenheit vortäuschen ohne tatsächlich anwesend zu sein. Allerdings dürfte dieses abgesehen von den unter 2.2.4 beschriebenen Sachverhalten einen Arbeitszeitbetrug und somit eine Straftat darstellen.

Wenn aber für die Aufdeckung von Straftaten entsprechend § 26 Abs. 1 Satz 2 BDSG personenbezogene Daten von Beschäftigten nur verarbeitet werden dürfen, wenn „zu dokumentierende tatsächliche Anhaltspunkte“ den Verdacht begründen, muss das erst recht für den Fall gelten, dass zur Vermeidung von Straftaten eine ständige Verarbeitung besonders geschützter biometrischer Beschäftigtendaten erfolgen soll. Dieser Grundrechtseingriff ist aufgrund der Festlegung in § 9 DSGVO von hoher Intensität und kann bereits als solcher unverhältnismäßig sein, wenn der Eingriffsanlass kein hinreichendes Gewicht aufweist. Soweit der Eingriff der Abwehr bestimmter Gefahren dient, kommt es für das Gewicht des Eingriffsanlasses maßgeblich auf den Rang und die Art der Gefährdung der Schutzgüter an (vgl. auch BVerfG vom 27. Februar 2008 – 1 BvR 370/07, 1 BvR 595/07).

Die Behauptung der Beklagten, dass es in einem verbundenen anderen Unternehmen zu Missbräuchen mit anderen technischen Zeiterfassungssystemen gekommen sei, hat die Beklagte trotz Bestreitens des Klägers nicht näher dargelegt. Dass Kartensysteme und andere Systeme beispielsweise durch die Übergabe der Karten an Kollegen (und die strafrechtlich relevante Benutzung durch diese) fälschlich Anwesenheiten vorspiegeln würden, ist richtig. Weshalb es aber im Betrieb der Beklagten in Berlin unentdeckt bleiben soll, wenn der Kläger (bzw. andere Mitarbeiter) entgegen dem Dienstplan bzw. der im System hinterlegten Sollarbeitszeit zu spät erscheinen oder vorzeitig gehen, ist dem Vortrag der Beklagten nicht zu entnehmen. Selbst wenn entsprechend dem Vortrag der Beklagten nicht immer ein Praxismanager vor Ort sein sollte, sind die übrigen Beschäftigten vor Ort. Dass diesen eine etwaige Unterbesetzung nicht auffallen würde, ist dem Vortrag der Beklagten nicht zu entnehmen.

2.3 Nach alledem hat die Beklagte keine Tatsachen dargelegt, nach denen die Verarbeitung biometrischer Daten des Klägers bei der Zeiterfassung „erforderlich“ ist, damit die Beklagte bzw. der Kläger ihre Rechte ausüben oder ihren Pflichten nachkommen können.

Da der Kläger somit keine arbeitsvertragliche Nebenpflicht verletzt hat, indem er sich geweigert hat, dass die Beklagte seine biometrischen Daten bei der Arbeitszeiterfassung verarbeiten kann, sind die Abmahnungen vom 5. Oktober 2018 und 26. März 2019 zu Unrecht erfolgt und diese deshalb, wie bereits vom Arbeitsgericht in dem angefochtenen Urteil festgestellt, in entsprechender Anwendung der §§ 242, 1004 BGB ersatzlos aus der Personalakte des Klägers zu entfernen.


Den Volltext der Entscheidung finden Sie hier: