Skip to content

LG Kiel: Betreiber einer Online-Datenbank für Wirtschaftsinformationen haftet für falsche KI-generierte Inhalte

LG Kiel
Urteil vom 29.02.2024
6 O 151/23


Das LG Kiel hat entschieden, dass der Betreiber einer Online-Datenbank für Wirtschaftsinformationen für falsche KI-generierte Inhalte haftet.

Aus den Entscheidungsgründen:
1. Der Klägerin steht ein Unterlassungsanspruch aus §§ 1004 Abs. 1 S.2 analog, 823 Abs. 1 BGB i.V.m. Art. 2 Abs. 1, 19 Abs. 3 GG zu, dass die Beklagte es unterlässt zu behaupten, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht wird (siehe Anlage K2).

a) § 1004 BGB ist analog und das allgemeine Persönlichkeitsrecht nach Art. 19 Abs. 3 GG auch auf die Klägerin anwendbar.

Unmittelbar schützt § 1004 BGB nur das Eigentum. Wegen ähnlichen Schutzes anderer absoluter Rechte wird § 1004 BGB analog auf alle absoluten Rechte des § 823 BGB angewendet (Grüneberg BGB/ Herrler § 1004 BGB Rn. 4). Eine juristische Person kann sich auf den Ehrenschutz durch das allgemeine Persönlichkeitsrecht berufen, wenn sie dieses Rechtsschutzes aus ihrem Wesen als Zweckschöpfung des Rechts und ihren Funktionen bedarf (BGH, Urteil vom 04.04.2017 - VI ZR 123/16, Rz. 16). Geschützt wird durch Art. 2 Abs. 1, Art. 1 Abs. 1 i.V.m. Art. 19 Abs. 3 GG auch der soziale Geltungsanspruch eines Wirtschaftsunternehmens (BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 12). Als mittelständisches Wirtschaftsunternehmen lebt die Klägerin von ihrem Ruf und wird deshalb auch vom Wesensgehalt des allgemeinen Persönlichkeitsrecht nach Art. 19 Abs. 3 GG erfasst.

Die Klägerin ist in den äußerungsrechtlichen Schutzgehalten ihres Unternehmenspersönlichkeitsrechts betroffen.

Zur Erfassung des Inhalts der von der Klägerin beanstandeten Äußerung ist diese auszulegen. Maßgeblich für die Deutung einer Äußerung ist weder die subjektive Absicht des sich Äußernden noch das subjektive Verständnis des von der Äußerung Betroffenen, sondern der Sinn, den sie nach dem Verständnis eines unvoreingenommenen und verständigen Publikums hat (BVerfG, Beschluss vom 25.10.2012 - 1 BvR 901/11, Rz. 20). Auszugehen ist dabei stets vom Wortlaut der Äußerung, deren Sinn allerdings auch von dem sprachlichen Kontext, in dem die umstrittene Äußerung steht und von den erkennbaren Begleitumständen, unter denen sie fällt, bestimmt wird (BVerfG, a.a.O.). Dementsprechend ist die isolierte Betrachtung eines Äußerungsteils regelmäßig nicht zulässig (BGH, Urteil vom 16.11.2004 - VI ZR 298/03, Rz. 23). Ausgehend hiervon muss bei der Auslegung der streitgegenständlichen Mitteilung maßgeblich berücksichtigt werden, wie die Beklagte unter dem Menüpunkt „Über uns" ihren Nutzern die Herkunft der von ihr bereitgestellten Informationen erklärt (siehe Anlage T1):

XXX analysiert Handelsregisterbekanntmachungen und andere Pflichtveröffentlichungen deutscher Firmen, um Wirtschaftsinformationen zu gewinnen, insbesondere zu finanziellen Kennzahlen und zu Zusammenhängen zwischen Firmen untereinander sowie zu Personen. Dazu werden Methoden der Big-Data Verarbeitung

und der Künstlichen Intelligenz (KI) verwendet.

Demnach versteht das unvoreingenommene und verständige Publikum die Mitteilung (Anlage K2) so, dass die Klägerin eine Pflichtmitteilung hinsichtlich ihrer Löschung wegen Vermögenslosigkeit nach § 394 FamFG machen musste und entsprechend vor der Löschung steht.

Während das Recht auf informationelle Selbstbestimmung Schutz davor bietet, dass Dritte sich individueller Daten bemächtigen, und sie in nicht nachvollziehbarerweise als Instrument nutzen, um die Betroffenen auf Eigenschaften, Typen oder Profile festzulegen, auf die sie keinen Einfluss haben und die aber für die freie Entfaltung der Persönlichkeit sowie eine gleichberechtigte Teilhabe in der Gesellschaft von erheblicher Bedeutung sind, bietet das Persönlichkeitsrecht in seiner äußerungsrechtlichen Ausprägung Schutz vor den Gefährdungen, die sich für die Persönlichkeitsentfaltung aus der sichtbaren Verbreitung bestimmter Informationen im öffentlichen Raum ergeben (BVerfG, Beschluss vom 06.11.2019- 1 BvR 16/13, Rz. 89 ff.; BGH, Urteil vom 26.11.2019 - VI ZR 12/19, Rz. 27 ff.; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 15). Gegen Letzteres wendet sich die Klägerin, weil sie sie dagegen zur Wehr setzt, dass die Beklagte bei Suchanfragen nach ihr, der Klägerin, ihren Nutzern unter anderem die streitgegenständliche Mitteilung (Anlage K2) angezeigt hat.

Die Klägerin wird durch die Äußerung der Beklagten in ihrem sozialen Geltungsanspruch berührt, weil sich daraus ergibt, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht würde, was sich abträglich auf ihr Ansehen in der Öffentlichkeit und ihre Kreditwürdigkeit auswirkt. Offenbleiben kann, ob die Beklagte, wie sie meint, ein haftungsprivilegierter Host-Provider im Sinne von §§ 2, Abs. 1 Nr. 1, 10 TMG ist. Das Haftungsprivileg des § 10 Satz 1 TMG erstreckt sich nur auf die strafrechtliche Verantwortung und die Schadensersatzhaftung eines Diensteanbieters von Telemedien im Sinne von § 2 Satz 1 Nr. 1 TMG (BGH, Versäumnisurteil vom 25.10.2011- VI ZR 93/10, Rz. 19) und lässt die Möglichkeit unberührt, den Diensteanbieter wegen einer vorangegangenen Rechtsverletzung auf Unterlassung in Anspruch zu nehmen (BGH, Urteil vom 01.03.2016 - VI ZR 34/15, Rz. 19 f.).

Dieser Eingriff in das allgemeine Persönlichkeitsrecht der Klägerin ist auch rechtswidrig gewesen.

Da das Persönlichkeitsrecht ein Rahmenrecht ist, dessen Reichweite nicht absolut feststeht, kann erst durch eine Abwägung der widerstreitenden grundrechtlich geschützten Belange, bei der die besonderen Umstände des Einzelfalls sowie die betroffenen Grundrechte zu berücksichtigen sind, bestimmt werden, ob der Eingriff in das Persönlichkeitsrecht rechtswidrig gewesen ist (BGH, Urteil vom 01.03.2016 – VI ZR 34/15, Rz. 30). Nichts anderes gilt für das Recht am eingerichteten und ausgeübten Gewerbetrieb. Dieses Recht stellt einen offenen Tatbestand dar, dessen Inhalt und Grenzen sich erst aus einer Abwägung mit den im Einzelfall konkret kollidierenden Interessen anderer ergeben (BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 16). Demnach ist das durch Art. 2 Abs. 1, 12 Abs. 1 und 19 Abs. 3 GG geschützte Interesse der Klägerin an ihrer sozialen Anerkennung und wirtschaftlichen Stellung mit der in Art. 5 Abs. 1 GG verankerten Meinungsfreiheit und Kommunikationsfreiheit der Beklagten sowie ihrer durch Art. 12 Abs. 1 GG geschützten Unternehmensfreiheit abzuwägen, bei deren Einschränkung die durch Art. 5 Abs. 1 GG geschützte Meinungs- und Informationsfreiheit der Nutzer des von der Beklagten betriebenen Portals zu berücksichtigen ist (vgl. BGH, Urteil vom 27.07.2020 - VI ZR 405/18, Rz. 33 und 36).

Die Beklagte will sich zwar gar nicht auf ihre Meinungsfreiheit berufen, weil sie den Rechtsstandpunkt einnimmt, ihr sei ähnlich einem Suchmaschinenbetreiber nicht an der Verbreitung einer bestimmten Meinung, sondern nur daran gelegen, die potentiellen Interessen ihrer Nutzer möglichst optimal zu befriedigen (vgl. BVerfG, Beschluss vom 6. November 2019-1 BvR 276/17, Rz. 106). Wie jedoch bereits ausgeführt wurde, ist die streitgegenständliche Äußerung nicht mit der typischen Dienstleistung eines Suchmaschinenbetreibers vergleichbar, weil die Beklagte nach der obigen Auslegung eine eigene Stellungnahme abgegeben hat. Es würde ihren Rechtsschutz erheblich verkürzen, wenn man ihr in dieser Situation den Schutz von Art. 5 Abs. 1 GG versagen würde, nur weil sie sich darauf nicht beruft.

Eine Abwägung der widerstreitenden Interessen ist allerdings entbehrlich, wenn es sich um Schmähkritik (oder - hier gänzlich fernliegend - um eine Formalbeleidigung oder einen Verstoß gegen die Menschenwürde) handelt, weil diese am Schutz der Meinungsfreiheit nach Art. 5 Abs. 1 Satz 1 GG nicht teilhaben (BVerfG, Beschluss vom 19.05.2020 - 1 BvR 2397/19, Rz. 19 und 21). Die Mitteilung der Beklagten ist jedoch nicht als Schmähkritik zu werten.

Wegen seines die Meinungsfreiheit verdrängenden Effekts ist der Begriff der Schmähkritik eng auszulegen (BVerfG, a.a.O., Rz. 20; BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 18). Von einer Schmähung ist nur auszugehen, wenn eine Äußerung keinen irgendwie nachvollziehbaren Bezug mehr zu einer sachlichen Auseinandersetzung hat und es bei ihr im Grunde nur um das grundlose Verächtlichmachen der betroffenen Person als solcher geht (BVerfG, a.a.O., Rz. 19; BGH, Urteil vom 27.02.2018 - VI ZR 489/16, Rz. 37). Daher stellt auch eine überzogene, ungerechte oder gar ausfällige Kritik noch keine Schmähung dar (BVerfG, a.a.O., Rz. 18; BGH, Urteil vom 16.12.2014 - VI ZR 39/14, Rz. 18). Auch bei dieser Auslegungsfrage ist die Äußerung in ihrem Gesamtzusammenhang zu betrachten (BGH, a.a.O., Rz. 19). Demnach stellt die streitgegenständliche Äußerung keine Schmähkritik dar. Die Aussage, die Klägerin würde wegen Vermögenslosigkeit nach § 394 FamFG gelöscht, kann zwar ihren sozialen Geltungsanspruch und ihre wirtschaftliche Stellung gegenüber anderen Marktteilnehmern ganz erheblich beeinträchtigen, unter Umständen sogar gefährden. Die in Rede stehende Meldung ist jedoch sachlich gehalten.


Für die demnach gebotene Abwägung ist zu berücksichtigen, dass es sich bei der Aussage um eine unwahre Tatsachenbehauptung handelt.

Tatsachen können anders als Meinungen wahr oder unwahr sein. Der Unterschied liegt in der Beziehung zwischen der Äußerung und der Realität (BVerfGE 90, 241 (247) = NJW 1994, 1779). Der Wahrheitsgehalt der Äußerung steht im Vordergrund. Hierüber kann im Wege einer Beweisaufnahme erkannt werden. Meinungen können hingegen nicht wahr oder unwahr sein, sondern zum Beispiel wahrhaftig oder unaufrichtig, überlegt oder unbedacht (BVerfGE 33, 1 (14) = NJW 1972, 811).

Die Aussage, dass der Klägerin die Löschung nach § 394 FamFG bevorsteht, ist entweder richtig oder falsch. Eine Beweisaufnahme darüber wäre denkbar. Insofern handelt es sich bei der Aussage der Beklagten um eine Tatsachenbehauptung.

Tatsachen sind nur dann grundgesetzlich geschützt, wenn sie Voraussetzung für die Bildung von Meinungen sind und zur Meinungsbildung beitragen (BVerfGE 85, 1 (15) = NJW 1992, 1439). Die Richtigkeit der Information hat Bedeutung für den grundrechtlichen Schutz, denn unwahre Äußerungen sind kein schützenswertes Gut (BVerfGE 54, 208 (219) = NJW 1980, 2072). Kennt der sich Äußernde die Unwahrheit, lügt er also bewusst, oder ist die Unwahrheit der Tatsache im Zeitpunkt der Äußerung erwiesen, entfällt grundrechtlicher Schutz, da diese Äußerungen nicht einmal vom Schutzbereich erfasst sind (BVerfGE 99, 185 (197) = NJW 1999, 1322).

Die Beklagte bediente sich einer künstlichen Intelligenz, um die Registerpublikationen auf ihrer Website zu veröffentlichen. Die Beklagte hatte damit unbestritten keine positive Kenntnis von der Unrichtigkeit der Meldung. Von dieser Tatsache hat sie erst erfahren, als die Klägerin an sie herangetreten ist (Bl. 17 d.A.).

Dass die Meldung unrichtig ist, führt die Beklagte selbst aus (Bl. 19 d.A.). Demnach lag eine Verwechslung mit der XXX, Amtsgericht XXX HRB XXX, beim Registergericht vor (XXX vs XXX).

Die zentrale Abwägung zwischen dem Persönlichkeitsrecht der Klägerin mit der Meinungsfreiheit der Beklagten ergibt ein deutliches Überwiegen auf Seiten der Klägerin.

Die streitgegenständliche Äußerung betrifft den durch Art. 2 Abs. 1, 19 Abs. 3 GG gewährleisteten sozialen Geltungsanspruch der Klägerin als Wirtschaftsunternehmen und ihr durch Art. 12, 19 Abs. 3 GG gewährleistetes Recht am eingerichteten und ausgeübten Gewerbebetrieb. Die unternehmerische Tätigkeit vollzieht sich zwar von vornherein im Kontakt mit der Umwelt. Dementsprechend muss sich ein Gewerbetreibender wertende, nicht mit unwahren Tatsachenbehauptungen verbundene Kritik an seiner gewerblichen Leistung in der Regel auch dann gefallen lassen, wenn sie scharf formuliert ist (BGH, Urteil vom 16.12.2014 – VI ZR 39/14, Rz. 21). Allerdings muss der Gewerbetreibende nicht hinnehmen, dass seine wirtschaftliche Stellung durch falsche Tatsachenbehauptungen geschwächt wird. Dies gilt insbesondere für die streitgegenständliche Äußerung, weil die falsche Meldung, dass die Klägerin wegen Vermögenslosigkeit nach § 394 FamFG gelöscht würde, jemanden ernstlich davon abhalten kann, mit der Klägerin in geschäftlichen Kontakt zu treten. Berücksichtigt werden muss dabei, dass die Beklagte bei Suchanfragen zum Namen der Klägerin an zweiter Stelle, also besonders prominent, auftaucht und damit ein breites an der Klägerin interessiertes Publikum erreicht (Anlage K5). Der Eingriff in das Schutzrecht ist entsprechend erheblich, die Interessen der Beklagten müssen hinter denen der Klägerin zurücktreten.

b) Die Beklagte ist unmittelbare Störerin im Sinne von § 1004 Abs. 1 BGB. Als Störer ist, unabhängig von einem Verschulden, jeder anzusehen, der die Störung adäquat kausal herbeigeführt hat oder dessen Verhalten eine Beeinträchtigung befürchten lässt (Grüneberg BGB/ Herrler § 1004 BGB Rn. 16 f.; BGH NZM 19, 893 Tz. 15). Auch der mittelbare Störer ist von der Norm umfasst, der in irgendeiner Weise willentlich und adäquat kausal an der Herbeiführung der rechtswidrigen Beeinträchtigung mitgewirkt hat (BGH, Urteil vom 28.07.2015 – VI ZR 340/14, Rz. 34).

Die Klägerin ist jedoch als unmittelbare Störerin anzusehen, weil sie sich willentlich zur Beantwortung von Suchanfragen einer eigenen Software bedient, die Informationen aus den veröffentlichten Pflichtmitteilungen extrahiert und aufbereitet veröffentlicht. Die Beklagte kann sich nicht darauf zurückziehen, sie sei an diesem automatischen Vorgang nicht beteiligt gewesen, weil sie sich bewusst zur Beantwortung von Suchanfragen ihrer Nutzer einer künstlichen Intelligenz bedient hat, die in Fällen wie diesem unzulänglich programmiert war, weil sie nicht erkannt hat, dass vorliegend die XXX, Amtsgericht XXX HRB XXX, gemeint war und ein Zuordnungsfehler (XXX vs XXX) vorlag (so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 19). Zum anderen haftet der Betreiber eines Portals auch dann als unmittelbarer Störer für die von einem Dritten eingestellten Inhalte, wenn er sich diese aus Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu eigen gemacht und dafür nach außen erkennbar die inhaltliche Verantwortung übernommen hat (BGH, Urteil vom 01.03.2016 – VI ZR 34/15, Rz. 17; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 19). Dies schafft die Beklagte dadurch, dass sie die Pflichtveröffentlichungen zu einem Unternehmen bei sich auf der Seite bündelt und die Informationen teilweise untereinander verknüpft.

c) Eine Wiederholungsgefahr liegt vor.

Diese liegt vor, wenn es die auf Tatsachen gegründete objektive ernstliche Besorgnis weiterer Störungen gibt. In der Regel begründet die vorangegangene rechtswidrige Beeinträchtigung eine tatsächliche Vermutung für die Wiederholungsgefahr (BGH NJW 12, 3781; Grüneberg BGB/ Herrler § 1004 BGB Rn. 32), an deren Wiederlegung durch den Störer hohe Anforderungen zu stellen sind (BGH NJW 99, 356).

Die aus der rechtswidrigen Beeinträchtigung folgende Vermutung konnte die Beklagte bisher nicht entkräften. Ihr Verweis, dass sie lediglich fremde Daten aus Pflichtveröffentlichungen ohne Prüfung veröffentliche, bekräftigt sogar die Wiederholungsgefahr. Denn die Pflichtinformationen sind nach Aussage der Beklagten, die sich auf das elektronische Handelsregister bezieht, unzuverlässig, sodass es „zu falschen Anzeigen kommt“ (Bl. 19 d.A.). Insofern kann nicht ausgeschlossen werden, dass der gleiche Fehler (Verwechslung XXX vs. XXX) erneut auftritt.

d) Eine den Unterlassungsanspruch ausschließende Duldungspflicht nach § 1004 Abs. 2 BGB kommt vorliegend nicht in Betracht.

2. Der von der Klägerin angekündigte Unterlassungsantrag ist insoweit unbegründet, als dass es auch zukünftige Informationsveröffentlichungen durch die Beklagte einbezieht, die sich nicht auf die vermeintliche Löschung der Klägerin nach § 394 FamFG beziehen.

Das Persönlichkeitsrecht ist ein Rahmenrecht, dessen Reichweite erst durch die Abwägung der betroffenen grundrechtlich geschützten Interessen bestimmt wird und dementsprechend ein aus dem Persönlichkeitsrecht abgeleitetes Gebot, eine Äußerung zu unterlassen, auf die konkrete Verletzungsform beschränkt werden muss, damit die wesentlichen abwägungsrelevanten Gesichtspunkte, die zur Rechtswidrigkeit der Äußerung geführt haben, in die Rechtskraft der Entscheidung miteinbezogen werden (vgl. BGH, Urteil vom 04.12.2018 - VI ZR 128/19, Rz. 19; so auch OLG Düsseldorf I-16 U 136/20; Anlage K6 S. 17).

3. Die Klägerin hat gegen die Beklagte einen Anspruch auf Ersatz der vorgerichtlichen Rechtsverfolgungskosten in Höhe des Obsiegens von 527,00 € gemäß §§ 280 Abs. 2, 286 Abs. 1 BGB.

Das Schuldverhältnis ergibt sich aus der Verletzung des allgemeinen Persönlichkeitsrechts der Klägerin gemäß § 823 Abs. 1 BGB.

Angemahnt wurde die Beklagte durch die Klägerin mit Fristsetzung am 21.07.2023, die daraufhin zwar die Meldung von ihrer Website entfernte, jedoch die Unterlassungserklärung nicht unterschrieben hat. Angesichts des erheblichen Eingriffs in das allgemeine Persönlichkeitsrecht der Klägerin war das Tätigwerden eines Rechtsanwalts auch erforderlich.

Die Klägerin kann jedoch die Umsatzsteuer in Höhe von 100,13 € nicht von der Beklagten verlangen. Die Klägerin ist nämlich vorsteuerabzugsberechtigt gemäß § 15 Abs. 1 S. 1 Nr. 1 UstG.Nach § 15 Abs. 1 S. 1 Nr. 1 UStG kann der Unternehmer die gesetzlich geschuldete Steuer für Lieferungen und sonstige Leistungen, die von einem anderen Unternehmer für sein Unternehmen ausgeführt worden sind, als Vorsteuer abziehen, wenn er eine nach den §§ 14, 14a UStG ausgestellte Rechnung besitzt. Auf der Rechnung des Prozessbevollmächtigten der Klägerin ist zwar ein Umsatzsteuerbetrag in Höhe von 155,46 € aufgeführt. Die Klägerin ist jedoch als GmbH Unternehmerin im Sinne des § 2 Abs. 1 S. 1 UStG. Die Beauftragung des Rechtsanwalts erfolgte für das Unternehmen nach § 15 Abs. 1 S. 1 UStG, da eine Unterlassung aufgrund einer Rechtsverletzung aufgrund ihres Unternehmenspersönlichkeitsrechts begehrt wird. Nach dem schadensrechtlichen Bereicherungsverbot soll der Geschädigte über den Schadensersatz keine Bereicherung erlangen. Den in der Abzugsmöglichkeiten liegenden Vorteil muss sich der Geschädigte auf den Schaden anrechnen lassen (BGH, Urteil vom 18.3.2014 – VI ZR 10/13 Rz. 17).


Den Volltext der Entscheidung finden Sie hier:

Verbotene Praktiken nach Art. 5 der KI-Verordnung - Manipulative KI-Systeme - Ausnutzung der Schwächen von Personengruppen - Social Scoring - Biometrische Fernidentifizierung im öffentlichen Raum

Mit Inkrafttreten der Verordnung (EU) 2024/1689 zur Regulierung von Künstlicher Intelligenz (KI-Verordnung) hat die Europäische Union einen neuen regulatorischen Rahmen geschaffen, um die Nutzung von KI-Systemen zu steuern und Risiken für Sicherheit, Gesundheit und Grundrechte zu minimieren. Die Verordnung basiert auf einem risikobasierten Ansatz und enthält klare Vorgaben für den Einsatz von KI-Systemen. Im Mittelpunkt steht dabei die Unterscheidung zwischen verschiedenen Risikokategorien, wobei die gefährlichsten KI-Praktiken vollständig verboten sind.

Artikel 5 der KI-Verordnung benennt abschließend bestimmte verbotene KI-Praktiken. Diese Praktiken gelten als so schwerwiegend, dass ihr Einsatz unabhängig vom Verwendungszweck oder der jeweiligen Branche vollständig untersagt ist. Unternehmen, die solche KI-Systeme entwickeln oder einsetzen, müssen mit erheblichen Sanktionen rechnen. In diesem Beitrag wird detailliert erläutert, wann verbotene KI-Praktiken vorliegen, welche Vorschriften dies regeln und welche rechtlichen Konsequenzen dies für Unternehmen hat.

I. Wann liegen verbotene KI-Praktiken vor?
Die KI-Verordnung unterscheidet in Artikel 5 zwischen verschiedenen KI-Praktiken, die per se verboten sind, da sie gegen fundamentale Rechte und Werte verstoßen oder erhebliche Risiken für die öffentliche Sicherheit darstellen. Diese Praktiken sind abschließend aufgelistet und umfassen folgende Hauptkategorien:

1. Manipulative KI-Systeme
Artikel 5 Abs. 1 lit. a verbietet den Einsatz von KI-Systemen, die durch unterbewusste Techniken das Verhalten von Personen in einer Weise manipulieren, dass dies zu physischen oder psychischen Schäden führt. Ziel dieser Vorschrift ist der Schutz der Autonomie und des freien Willens von Individuen. Manipulative Systeme, die gezielt unterbewusste Techniken nutzen, um Menschen zu bestimmten Handlungen zu verleiten, stellen ein erhebliches Risiko dar.

Beispielsweise könnte ein KI-System, das unbewusst Kaufentscheidungen beeinflusst oder Menschen zu gesundheitsschädlichem Verhalten verleitet, unter diese Kategorie fallen. Ein solches System würde das Risiko mit sich bringen, dass die betroffene Person gegen ihren Willen zu Handlungen gedrängt wird, die ihr schaden.

2. Ausnutzung von Schwächen bestimmter Personengruppen
Nach Artikel 5 Abs. 1 lit. b ist der Einsatz von KI-Systemen verboten, die die besonderen Schwächen bestimmter Personengruppen ausnutzen, wie z. B. Kinder oder Menschen mit Behinderungen. Diese Vorschrift zielt auf den Schutz besonders schutzbedürftiger Gruppen ab, die durch KI-Systeme besonders leicht zu manipulieren oder zu beeinflussen sind.

Ein Beispiel wäre eine KI, die Kinder gezielt dazu verleitet, exzessiv Videospiele zu spielen oder Käufe zu tätigen, indem sie deren mangelnde kognitive Reife oder emotionale Schwächen ausnutzt.

3. KI-Systeme zur sozialen Bewertung (Social Scoring)
Artikel 5 Abs. 1 lit. c verbietet den Einsatz von KI-Systemen durch Behörden zur Bewertung des Verhaltens von Bürgern über einen längeren Zeitraum hinweg und zur Vergabe von sozialen Vorteilen oder Nachteilen (sogenanntes „Social Scoring“). Ein solches System könnte dazu führen, dass Personen aufgrund ihres Verhaltens oder anderer Kriterien in diskriminierender Weise behandelt werden.

Ein bekanntes Beispiel hierfür ist das Social Credit System, das in einigen Staaten zur Bewertung des Verhaltens von Bürgern eingesetzt wird. Dieses Vorgehen birgt das Risiko, dass soziale, wirtschaftliche oder rechtliche Entscheidungen auf Grundlage ungenauer oder unverhältnismäßiger Bewertungen getroffen werden.

4. Biometrische Fernidentifizierung im öffentlichen Raum
Artikel 5 Abs. 1 lit. d der KI-Verordnung untersagt den Einsatz von KI-Systemen zur biometrischen Fernidentifizierung in Echtzeit in öffentlichen Räumen, es sei denn, sie sind ausdrücklich durch das Recht der Union oder der Mitgliedstaaten erlaubt. Derartige Systeme, wie beispielsweise Gesichtserkennungstechnologien, können eine massive Überwachung ermöglichen und das Recht auf Privatsphäre erheblich einschränken.

Ausnahmen bestehen nur in streng geregelten Fällen, etwa bei der Verhinderung schwerer Straftaten oder zur Terrorismusbekämpfung, und müssen von den zuständigen Behörden genehmigt werden.

II. Rechtliche Konsequenzen für Unternehmen
Für Unternehmen, die verbotene KI-Praktiken anwenden, hat die Nichteinhaltung der Vorschriften schwerwiegende Folgen. Die Verordnung sieht umfassende Sanktionen vor, die insbesondere in Artikel 71 geregelt sind.

1. Bußgelder
Verstöße gegen Artikel 5 der KI-Verordnung können mit erheblichen Bußgeldern geahndet werden. Artikel 71 Abs. 3 legt fest, dass Unternehmen bei Verstößen gegen die Verbotsvorschriften Geldbußen von bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes des Unternehmens zu zahlen haben, je nachdem, welcher Betrag höher ist. Diese hohen Bußgelder unterstreichen den Stellenwert der Verordnung und die Schwere von Verstößen.

Diese Sanktionen stehen in ihrer Höhe den Bußgeldern der Datenschutz-Grundverordnung (DSGVO) nahe und verdeutlichen die Entschlossenheit der EU, die Einhaltung der Vorschriften durchzusetzen.

2. Betriebseinstellungen und Vertriebsverbote
Neben Bußgeldern kann die zuständige Aufsichtsbehörde gemäß Artikel 71 Abs. 4 auch andere Sanktionen verhängen, darunter:

Einstellung des Betriebs eines KI-Systems, das gegen die Verbote verstößt,
Rückruf von Produkten, die verbotene KI-Systeme enthalten,
Verbot des Inverkehrbringens oder der Bereitstellung von solchen Systemen auf dem europäischen Markt.
Diese Maßnahmen können für Unternehmen besonders schwerwiegend sein, da sie direkt den Fortbestand des Geschäftsmodells oder den Einsatz von innovativen Technologien betreffen.

3. Haftung für Schäden
Unternehmen, die verbotene KI-Systeme einsetzen, können zudem zivilrechtlich für Schäden haftbar gemacht werden, die durch den Einsatz solcher Systeme verursacht wurden. Dies ergibt sich aus den allgemeinen Haftungsvorschriften im Zivilrecht, aber auch aus der DSGVO, sofern personenbezogene Daten betroffen sind. Geschädigte Personen haben das Recht, auf Schadensersatz zu klagen, insbesondere wenn durch den Einsatz eines verbotenen KI-Systems ihre Grundrechte verletzt wurden.

III. Praktische Herausforderungen für Unternehmen
Die Implementierung der Vorschriften der KI-Verordnung erfordert von Unternehmen erhebliche Anstrengungen. Insbesondere die Einhaltung der Verbote nach Artikel 5 stellt Unternehmen vor praktische Herausforderungen:

1. Risikoabschätzung und Compliance
Unternehmen müssen sicherstellen, dass ihre KI-Systeme im Einklang mit den Verboten stehen. Hierzu sind umfassende Risikomanagement-Systeme erforderlich, die mögliche Risiken von KI-Anwendungen erfassen und geeignete Maßnahmen zur Vermeidung von Verstößen festlegen. Da KI-Systeme oft komplex und schwer durchschaubar sind, müssen Unternehmen sicherstellen, dass sie die Funktionsweise ihrer Systeme genau kennen und regelmäßig überprüfen.

2. Interne Kontrollen und Prüfmechanismen
Ein wichtiger Bestandteil der Compliance-Strategie ist die Implementierung von internen Prüfmechanismen, die sicherstellen, dass verbotene KI-Praktiken nicht unbewusst in die Unternehmensprozesse eingebaut werden. Dies erfordert insbesondere regelmäßige Audits und die Einrichtung von Kontrollinstanzen innerhalb des Unternehmens, etwa durch Ethik- oder Datenschutzbeauftragte, die den Einsatz von KI-Systemen überwachen.

3. Schulung und Sensibilisierung der Mitarbeiter
Da KI-Systeme oft tief in den Unternehmensprozessen verankert sind, ist es notwendig, die Mitarbeiter regelmäßig zu schulen und für die rechtlichen Anforderungen zu sensibilisieren. Dies gilt insbesondere für Entwickler und Anwender von KI-Systemen, die für die Einhaltung der Vorschriften verantwortlich sind.

Fazit
Artikel 5 KI-Verordnung soll sicherstellen, dass besonders gefährliche und ethisch bedenkliche KI-Praktiken vollständig verboten werden. Für Unternehmen ist die Einhaltung dieser Verbote von entscheidender Bedeutung, da Verstöße nicht nur zu erheblichen Bußgeldern, sondern auch zu Betriebsverboten und anderen schwerwiegenden Konsequenzen führen können.

Unternehmen müssen daher umfassende Compliance-Strategien entwickeln, um sicherzustellen, dass ihre KI-Systeme im Einklang mit der Verordnung stehen. Besonders im Hinblick auf die verbotenen Praktiken erfordert dies ein hohes Maß an Transparenz und interne Prüfmechanismen, um die Risiken, die von der Nutzung von KI ausgehen, wirksam zu kontrollieren. Rechtsprechung und Aufsichtspraxis werden zeigen, wie streng die Vorschriften der KI-Verordnung durchgesetzt werden. Ein Blick in die Vergangenheit zeigt, dass sich immer Gerichte und Aufsichtsbehörden finden, welche einen besonder strengen Maßstab bei der Auslegung rechtliche Vorgaben anglegen.


KI-Verordnung - Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz wurde im Amtsblatt der EU veröffentlicht

Die Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-Verordnung) wurde am 12.07.2024 im Amtsblatt der EU veröffentlicht.

Die vollständige Verordnung finden Sie hier:
VERORDNUNG (EU) 2024/1689 DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)

Die Vorschriften treten sukzessive in Kraft. In Art. 113 KI-Verordnung heißt es dazu:
Art. 113 Inkrafttreten und Geltungsbeginn
Diese Verordnung tritt am zwanzigsten Tag nach ihrer Veröffentlichung im Amtsblatt der Europäischen Union in Kraft. Sie gilt ab dem 2. August 2026.
Jedoch:
a) Die Kapitel I und II gelten ab dem 2. Februar 2025;
b) Kapitel III Abschnitt 4, Kapitel V, Kapitel VII und Kapitel XII sowie Artikel 78 gelten ab dem 2. August 2025, mit Ausnahme des Artikels 101;
c) Artikel 6 Absatz 1 und die entsprechenden Pflichten gemäß dieser Verordnung gelten ab dem 2. August 2027.



BGH: Künstliche Intelligenz kann kein Erfinder im Sinne des Patentrechts sein - Natürliche Person als Erfinder grundsätzlich möglich und erforderlich auch wenn KI-System verwendet wurde

BGH
Beschluss vom 11.06.2024
X ZB 5/22
DABUS
PatG § 37 Abs. 1, §§ 6, 42


Der BGH hat entschieden, dass künstliche Intelligenz kein Erfinder im Sinne des Patentrechts sein kann. Für eine Patentanmeldung ist eine natürliche Person als Erfinder grundsätzlich möglich und erforderlich auch wenn ein KI-System verwendet wurde.

Leitsätze des BGH:
1. Erfinder im Sinne von § 37 Abs. 1 PatG kann nur eine natürliche Person sein. Ein maschinelles, aus Hard- oder Software bestehendes System kann auch dann nicht als Erfinder benannt werden, wenn es über Funktionen künstlicher Intelligenz verfügt

2. Die Benennung einer natürlichen Person als Erfinder ist auch dann möglich und erforderlich, wenn zum Auffinden der beanspruchten technischen Lehre ein System mit künstlicher Intelligenz eingesetzt worden ist.

3. Die Benennung einer natürlichen Person als Erfinder im dafür vorgesehenen amtlichen Formular genügt nicht den Anforderungen aus § 37 Abs. 1 PatG, wenn zugleich beantragt wird, die Beschreibung um den Hinweis zu ergänzen, die Erfindung sei durch eine künstliche Intelligenz generiert oder geschaffen worden.

4. Die Ergänzung einer hinreichend deutlichen Erfinderbenennung um die Angabe, der Erfinder habe eine näher bezeichnete künstliche Intelligenz zur Generierung der Erfindung veranlasst, ist rechtlich unerheblich und rechtfertigt nicht die Zurückweisung der Anmeldung nach § 42 Abs. 3 PatG.

BGH, Beschluss vom 11. Juni 2024 - X ZB 5/22 - Bundespatentgericht

Den Volltext der ENtscheidung finden Sie hier:


ArbG Hamburg: Kein Mitbestimmungsrecht des Betriebsrats bei Gestattung der Nutzung von ChatGPT und anderer KI-Lösungen

ArbG Hamburg
Beschluss vom 16.01.2024
24 BVGa 1/24


Das ArbG Hamburg hat entschieden, dass kein Mitbestimmungsrecht des Betriebsrats bei Gestattung der Nutzung von ChatGPT und anderer KI-Lösungen besteht.

Aus den Entscheidungsgründen:
b) Der Antrag ist unbegründet, denn es fehlt bereits an einem Verfügungsanspruch des Beteiligten zu 1. (§§ 935, 940 ZPO, § 85 Abs. 2 ArbGG).

aa) Es kann dabei dahinstehen, ob ein Anspruch aus § 23 Abs. 3 BetrVG im Wege des einstweiligen Rechtsschutzes geltend gemacht werden kann (bejahend: LAG Rheinland-Pfalz vom 24.01.2019 – 2 TaBVGa 6/18; Fitting, § 23 BetrVG, Rn.76, Oetker, in: GK-BetrVG, § 23 BetrVG, Rn. 262; ablehnend: Besgen, in: Beck-OK Arbeitsrecht, § 23 BetrVG, Rn. 35; Koch, in: ErfK, § 23 BetrVG, Rn. 23; Thüsing, in: Richardi, § 23 BetrVG, Rn. 105), denn die Voraussetzungen des § 23 Abs. 3 BetrVG liegen nicht vor. Die Beteiligte zu 2. hat mit dem Einstellen von Guidelines, Handbuch und KI-Richtlinien ohne zuvor den Konzernbetriebsrat beteiligt zu haben, keine groben Verstöße gegen ihre Pflichten aus dem BetrVG begangen.

(1) Entgegen der Rechtsauffassung des Antragstellers hat die Beteiligte zu 2. mit den vorgenannten Maßnahmen, die zur Gestattung der Nutzung von ChatGPT und vergleichbarer Konkurrenzprogramme durch die Mitarbeiter geführt haben, § 87 Abs. 1 Nr. 1 BetrVG nicht verletzt.

Nach dieser Vorschrift hat der Betriebsrat mitzubestimmen in Fragen der Ordnung des Betriebs und des Verhaltens der Arbeitnehmer im Betrieb. Gegenstand des Mitbestimmungsrechts ist das betriebliche Zusammenleben und kollektive Zusammenwirken der Beschäftigten. Es beruht darauf, dass die Beschäftigten ihre vertraglich geschuldete Leistung innerhalb einer vom Arbeitgeber vorgegebenen Arbeitsorganisation erbringen und deshalb dessen Weisungsrecht unterliegen. Das berechtigt den Arbeitgeber dazu, Regelungen vorzugeben, die das Verhalten der Beschäftigten im Betrieb beeinflussen und koordinieren sollen. Solche Maßnahmen bedürfen der Zustimmung des Betriebsrats. Dies soll gewährleisten, dass die Beschäftigten gleichberechtigt an der Gestaltung des betrieblichen Zusammenlebens teilhaben können (BAG vom

Gemäß der ständigen Rechtsprechung des BAG hat der Betriebsrat entgegen dem überschießenden Wortlaut nur mitzubestimmen bei Maßnahmen, die das so genannte Ordnungsverhalten der Arbeitnehmer betreffen. Dieses ist berührt, wenn die Maßnahme auf die Gestaltung des kollektiven Miteinander oder die Gewährleistung und Aufrechterhaltung der vorgegebenen Ordnung des Betriebs zielt (BAG vom 27.09.2005 - 1 ABR 32/04). Mitbestimmungsfrei sind dagegen Maßnahmen, die das so genannte Arbeitsverhalten der Beschäftigten regeln. Darum handelt es sich, wenn der Arbeitgeber kraft seines arbeitsver-raglichen Weisungsrechts näher bestimmt, welche Arbeiten auszuführen sind und in welcher Weise das geschehen soll. Mitbestimmungsfrei sind deshalb Anordnungen, mit denen lediglich die Arbeitspflicht konkretisiert wird (BAG vom 23.08.2018 – 2 AZR 235/18). Die Entscheidung, ob, wann und wie die vertraglich zugesagte Arbeit zu erledigen ist und wie deren Erbringung kontrolliert und gesichert wird, fällt nicht unter den Mitbestimmungstatbestand (BAG vom 15.04.2014 – 1 ABR 85/12).

Wendet man diese Grundsätze der ständigen BAG-Rechtsprechung an, so fallen die Vorgaben zur Nutzung von ChatGPT und vergleichbarer Tools unter das mitbestimmungsfreie Arbeitsverhalten (so auch: Holthausen, RdA 2023, S. 261 ff.; Kalbfus/Schöberle, NZA 2023, S. 251 ff.; Witteler, ZD 2023, S. 377 ff.). Die Beteiligte zu 2. stellt ihren Arbeitnehmern ein neues Arbeitsmittel unter bestimmten Bedingungen zur Verfügung. Richtlinien, Handbuch usw. sind somit Anordnungen, welche die Art und Weise der Arbeitserbringung betreffen, weshalb kein Mitbestimmungsrecht aus § 87 Abs. 1 Nr. 1 BetrVG besteht.

Der Antragsteller hat in der mündlichen Verhandlung den Einwurf erhoben, dass durch die Erlaubnis der Beteiligten zu 2., die Arbeitnehmer können entscheiden, ob sie ChatGPT einsetzen, letztlich zwei Gruppen von Arbeitnehmern geschaffen wer/den, nämlich die Gruppe der Arbeitnehmer, die Künstlicher Intelligenz aufgeschlossen und die Gruppe, die dieser Entwicklung skeptisch gegenüberstehen, weshalb das Zusammenleben der Belegschaft und damit das Ordnungsverhalten betroffen seien. Eine solche Ansicht hätte zur Konsequenz, dass die nicht flächendeckende Einführung neuer Arbeitsmittel für vergleichbare Arbeitnehmer stets zu einer Zweiteilung führt, nämlich der Gruppe, welche das neue Arbeitsmittel einsetzt und der Gruppe, die noch mit den alten Arbeitsmitteln ihre Arbeitspflicht erfüllt, so dass in diesen Fällen der Betriebsrat zu beteiligen wäre, obwohl der Arbeitgeber nur Anordnungen getroffen hat, wie die Arbeit zu leisten ist. Dies ist mit dem gesetzgeberischen Willen, warum § 87 Abs. 1 Nr. 1 BetrVG ein Beteiligungsrecht begründen soll, nicht vereinbar.

(2) Auch das Mitbestimmungsrecht aus § 87 Abs. 1 Nr. 6 BetrVG hat die Beteiligte zu 2. nicht verletzt. Nach § § 87 Abs. 1 Nr. 6 BetrVG hat der Betriebsrat u.a. mitzubestimmen bei der Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. Das Mitbestimmungsrecht ist darauf gerichtet, Arbeitnehmer vor Beeinträchtigungen ihres Persönlichkeitsrechts durch den Einsatz technischer Überwachungseinrichtungen zu bewahren, die nicht durch schutzwerte Belange des Arbeitgebers gerechtfertigt und unverhältnismäßig sind (BAG vom 03.12.2016 – 1 ABR 7/15). „Überwachung“ im Sinne des Mitbestimmungsrechts ist ein Vorgang, durch den Informationen über das Verhalten oder die Leistung von Arbeitnehmern seitens des Arbeitgebers erhoben und – jedenfalls in der Regel – aufgezeichnet werden, um sie auch späterer Wahrnehmung zugänglich zu machen. Die Informationen müssen auf technische Weise ermittelt und dokumentiert werden, so dass sie zumindest für eine gewisse Dauer verfügbar bleiben und vom Arbeitgeber herangezogen werden können. Die Überwachung muss durch die technische Einrichtung selbst bewirkt werden. Dazu muss diese aufgrund ihrer technischen Natur unmittelbar die Überwachung vornehmen. Das setzt voraus, dass die technische Einrichtung selbst und automatisch die Daten über bestimmte Vorgänge erhebt, speichert und/oder verarbeitet. Ausreichend ist, wenn lediglich ein Teil des Überwachungsvorgangs mittels einer technischen Einrichtung erfolgt. Zur Überwachung „bestimmt“ sind technische Einrichtungen, wenn sie objektiv geeignet sind, dass der Arbeitgeber Verhaltens- oder Leistungsinformationen über den Arbeitnehmer erheben und aufzuzeichnen kann. Auf die subjektive Überwachungsabsicht des Arbeitgebers kommt es nicht an ((BAG vom 03.12.2016 – 1 ABR 7/15).

Vorliegend ist unstreitig, dass ChatGPT und die vergleichbaren Konkurrenzprodukte nicht auf den Computersystemen der Beteiligten zu 2. installiert wurden. Will ein Arbeitnehmer diese Tools nutzen, muss er diese wie jede andere Homepage auch, mittels eines Browsers aufrufen. Zwar wird der Browser die Einwahl regelmäßig aufzeichnen. Dies stellt aber keine Besonderheit von ChatGPT dar, sondern ergibt sich aus den Funktionsmöglichkeiten des Browsers, der den Surfverlauf des Nutzers abspeichert. Der Browser selbst ist somit eine technische Einrichtung, die geeignet ist, Leistungs- und Verhaltensinformationen der Arbeitnehmer aufzuzeichnen. Zur Nutzung von Browsern haben die Beteiligten eine Konzernbetriebsvereinbarung abgeschlossen, weshalb der Antragsteller sein Mitbestimmungsrecht aus § 87 Abs. 1 S. 1 BetrVG bereits ausgeübt hat.

Unstreitig ist, dass der Arbeitnehmer selbst einen Account bei ChatGPT anlegen und eventuell entstehende Kosten auch selbst tragen muss, weshalb die Beteiligte zu 2. keinerlei Meldung erhält, wann welcher Arbeitnehmer wie lange und mit welchem Anliegen ChatGPT genutzt hat. Dass der Hersteller etwa von ChatGPT die vorgenannten Daten aufzeichnet, ist zu unterstellen. Dies führt aber nicht zur Mitbestimmung, denn der dadurch entstehende Überwachungsdruck wird nicht vom Arbeitgeber ausgeübt. Die Beteiligte zu 2. kann auf die vom Hersteller gewonnenen Informationen nicht zugreifen. Mit der Nutzung von ChatGPT vergleichbar ist etwa „beck-online“ (Datenbank des Beck-Verlags), wenn der Nutzer seinen eigenen Account angelegt und die Kosten selber zu tragen hat.

Auch die Vorgabe der Beteiligten zu 2., dass Arbeitnehmer Arbeitsergebnisse, die mittels Unterstützung von Künstlicher Intelligenz entstanden sind, kennzeichnen müssen, führt nicht zu einem Mitbestimmungsrecht nach § 87 Abs. 1 Nr. 6 BetrVG. Wie ausgeführt muss die technische Einrichtung die Überwachung selbst bewirken, um eine Mitbestimmung auszulösen. Die Kennzeichnung und die damit verbundene Kontrollmöglichkeit der Beteiligten zu 2., wer Chatbots einsetzt, erfolgt aber hier durch den Arbeitnehmer selbst und nicht durch das Tool.

(3) Ebenfalls ist ein Mitbestimmungsrecht aus § 87 Abs. 1 Nr. 7 BetrVG nicht ersichtlich. Voraussetzung für das Mitbestimmungsrecht nach § 87 Abs. 1 Nr. 7 BetrVG i.V.m. § 3a Abs. 1 S. 1 ArbStättV; § 3 Abs. 1 S. 1 ArbStättV ist eine vorliegende oder im Rahmen einer Gefährdungsbeurteilung nach § 5 ArbSchG festgestellte konkrete Gefährdung der Mitarbeiter (LAG Düsseldorf vom 09.01.2018 – 3 TaBVGa 6/17). Zu einer konkreten Gefährdung hat der Antragsteller nichts vorgetragen, sie sind auch sonst nicht erkennbar.

(4) Dahinstehen kann, ob die Beteiligte zu 2. die Unterrichtungs- und Beratungsrechte des Betriebsrats nach § 90 Abs. 1 Nr. 3, Abs. 2 BetrVG hinreichend erfüllt hat, denn ein einmaliger Verstoß gegen § 90 BetrVG stellt noch keine grobe Pflichtverletzung i.S.d. § 23 Abs. 3 BetrVG dar.

bb) Ein Verfügungsanspruch ergibt sich auch nicht aus § 87 Abs. 1 BetrVG. Zwar steht dem Betriebsrat zum Schutz seiner in § 87 Abs. 1 BetrVG aufgeführten Mitbestimmungsrechte ein negatorischer Beseitigungs- und Unterlassungsanspruch zu (BAG vom 23.03.2021 – 1 ABR 31/19; Richardi/Maschmann, in: Richardi, § 87 BetrVG, Rn. 134 ff.). Wie dargelegt ist aber im vorliegenden Fall kein Mitbestimmungsrecht des Antragsstellers berührt, weshalb auch kein Beseitigungsanspruch besteht.

cc) Aus § 90 BetrVG kann sich ein Verfügungsanspruch nicht ergeben, denn § 90 BertVG gewährt lediglich Unterrichtungs- und Beratungsrechte, aber kein Mitbestimmungsrecht, das den Arbeitgeber an einer einseitigen Durchführung der Maßnahme hindert. Daher würde eine einstweilige Verfügung gerichtet auf Beseitigung oder Unterlassen einer Maßnahme über den Hauptanspruch hinausgehen (vgl. nur: Fitting, § 90 BetrVG, Rn. 48).


Den Volltext der Entscheidung finden Sie hier:

EU-Parlament und EU-Rat: Entwurf Artificial Intelligence Act - Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence

EU-Parlament und EU-Rat haben einen Entwurf des Artificial Intelligence Act vorgelegt.

Aus dem Entwurf:
Gründe und Ziele des Vorschlags

Diese Begründung ist dem Vorschlag für eine Verordnung beigefügt, mit der harmonisierte Vorschriften für künstliche Intelligenz festgelegt werden (Gesetz über künstliche Intelligenz). Künstliche Intelligenz (KI) bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und einen vielfältigen Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg hervorbringen können. Der Einsatz künstlicher Intelligenz zur Verbesserung von Prognosen, zur Optimierung von Abläufen und der Ressourcenzuweisung sowie zur Personalisierung der Diensteerbringung kann für die Gesellschaft und die Umwelt von Nutzen sein und Unternehmen sowie der europäischen Wirtschaft Wettbewerbsvorteile verschaffen. Bedarf besteht insbesondere in Sektoren, von denen eine große Wirkung ausgeht, wie Klimaschutz, Umwelt und Gesundheit, öffentlicher Sektor, Finanzen, Mobilität, Inneres und Landwirtschaft. Dieselben Faktoren und Techniken, die für den sozioökonomischen Nutzen der KI sorgen, können aber auch neue Risiken oder Nachteile für den Einzelnen oder die Gesellschaft hervorbringen. Vor dem Hintergrund des rasanten technologischen Wandels und möglicher Herausforderungen ist die EU entschlossen, einen ausgewogenen Ansatz zu erreichen. Es liegt im Interesse der Union, die technische Führungsrolle der EU auszubauen und dafür zu sorgen, dass die Europäerinnen und Europäer von den im Einklang mit den Werten, Grundrechten und Prinzipien der Union entwickelten und funktionierenden neuen Technologien profitieren können.

Dieser Vorschlag geht auf das politische Engagement von Präsidentin von der Leyen zurück, die in ihren politischen Leitlinien für die Kommission (2019-2024) – „Eine Union, die mehr erreichen will“ 1 – ankündigte, dass die Kommission einen Legislativvorschlag für ein koordiniertes europäisches Konzept für die menschlichen und ethischen Aspekte der KI vorlegen wird. Im Nachgang zu dieser Ankündigung veröffentlichte die Kommission am 19. Februar 2020 ihr Weißbuch zur KI – Ein europäisches Konzept für Exzellenz und Vertrauen 2 . In dem Weißbuch legt sie die politischen Optionen dar, wie die Nutzung von KI gefördert und gleichzeitig die mit bestimmten Anwendungen dieser Technologie verbundenen Risiken eingedämmt werden können. Dieser Vorschlag zielt darauf ab, einen Rechtsrahmen für eine vertrauenswürdige KI zu schaffen, damit das zweite Ziel für den Aufbau eines Ökosystems für Vertrauen umgesetzt werden kann. Der Vorschlag beruht auf den Werten und Grundrechten der EU und will erreichen, dass Privatpersonen und andere Nutzer KI-gestützten Lösungen vertrauen und gleichzeitig Unternehmen Anreize erhalten, diese zu entwickeln. KI sollte ein Instrument sein, das als positive Kraft für die Gesellschaft im Dienst der Menschen steht und das letztlich zu einem größeren Wohlbefinden der Menschen beiträgt. Vorschriften für KI, die auf dem Unionsmarkt verfügbar ist oder anderweitig Menschen in der Union beeinflusst, sollten daher auf den Menschen ausgerichtet sein, damit Menschen darauf vertrauen können, dass die Technik sicher angewandt wird und den Gesetzen, auch den Grundrechten, genügt. Nach Veröffentlichung des Weißbuchs leitete die Kommission eine breit angelegte Konsultation der Interessenträger ein, die reges Interesse zeigten und sich in großer Zahl beteiligten und die weitestgehend regulatorische Maßnahmen zur Bewältigung der Herausforderungen und Bedenken, die der zunehmende Einsatz von KI mit sich bringt, befürworteten.

Der Vorschlag ist zudem eine Reaktion auf die vom Europäischen Parlament und dem Europäischen Rat ausdrücklich und wiederholt erhobenen Forderungen nach legislativen Maßnahmen zur Gewährleistung eines reibungslos funktionierenden Binnenmarkts für Systeme der künstlichen Intelligenz (KI-Systeme), mit denen sowohl der Nutzen als auch die Risiken der KI auf Unionsebene angemessen geregelt werden. Er unterstützt das vom Europäischen Rat 3 formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament 4 ausdrücklich geforderten Schutz von Ethikgrundsätzen.

2017 forderte der Europäische Rat „ein Bewusstsein für die Dringlichkeit der Auseinandersetzung mit neuen Trends“, auch für „Themen wie künstliche Intelligenz....“, „wobei zugleich ein hohes Niveau in Bezug auf Datenschutz, digitale Rechte und ethische Standards gewahrt werden muss“ 5 . In seinen Schlussfolgerungen von 2019 zu dem koordinierten Plan für künstliche Intelligenz „Made in Europe“ 6 betont der Rat ferner, wie wichtig es ist, die uneingeschränkte Achtung der Rechte der europäischen Bürgerinnen und Bürger zu gewährleisten, und ruft dazu auf, die maßgeblichen geltenden Rechtsvorschriften zu überprüfen, um sicherzustellen, dass sie im Hinblick auf die neuen Chancen und Herausforderungen, die sich durch künstliche Intelligenz ergeben, zweckdienlich sind. Der Europäische Rat forderte zudem eine klare Festlegung von KI-Anwendungen, die als hochriskant eingestuft werden sollten 7 .

In seinen jüngsten Schlussfolgerungen vom 21. Oktober 2020 forderte der Rat zudem, dass Probleme wie Undurchsichtigkeit, Komplexität, der sogenannte „Bias“, ein gewisses Maß an Unberechenbarkeit und teilweise autonomes Verhalten einiger KI-Systeme angegangen werden müssen, um deren Vereinbarkeit mit den Grundrechten sicherzustellen und die Durchsetzung der Rechtsvorschriften zu erleichtern 8 .

Auch das Europäische Parlament hat sich intensiv mit dem Thema der KI befasst. Im Oktober 2020 nahm es eine Reihe von Entschließungen zur KI an, u. a. zur Ethik 9 , zivilrechtlichen Haftung 10 und zum Urheberrecht 11 . 2021 folgten weitere Entschließungen zur KI im Strafrecht 12 sowie in der Bildung, der Kultur und im audiovisuellen Bereich 13 . In seiner Entschließung zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien empfiehlt das Europäische Parlament der Kommission insbesondere legislative Maßnahmen vorzuschlagen, um so die Chancen und den Nutzen künstlicher Intelligenz auszuschöpfen, aber auch dafür zu sorgen, dass Ethik-Grundsätze geschützt werden. Die Entschließung enthält den Legislativvorschlag für eine Verordnung über Ethik-Grundsätze für die Entwicklung, den Einsatz und die Nutzung von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien im Wortlaut. Dieser Vorschlag berücksichtigt die vorstehende Entschließung des Europäischen Parlaments unter uneingeschränkter Wahrung der Grundsätze der Verhältnismäßigkeit, Subsidiarität und besseren Rechtsetzung und steht damit in Einklang mit den von Präsidentin von der Leyen in ihren politischen Leitlinien gemachten politischen Zusagen hinsichtlich der Behandlung der vom Europäischen Parlament angenommenen Entschließungen nach Artikel 225 AEUV.

Vor diesem politischen Hintergrund legt die Kommission ihren Vorschlag für einen Rechtsrahmen zur Künstlichen Intelligenz vor, mit dem konkret die folgenden Ziele angestrebt werden:

·Es muss gewährleistet sein, dass die auf dem Unionsmarkt in Verkehr gebrachten und verwendeten KI-Systeme sicher sind und die bestehenden Grundrechte und die Werte der Union wahren.

·Zur Förderung von Investitionen in KI und innovativen KI muss Rechtssicherheit gewährleistet sein.

·Governance und die wirksame Durchsetzung des geltenden Rechts zur Wahrung der Grundrechte sowie die Sicherheitsanforderungen an KI-Systeme müssen gestärkt werden.

·Die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen muss erleichtert werden und es gilt, eine Marktfragmentierung zu verhindern.

Mit Blick auf diese Ziele enthält dieser Vorschlag einen ausgewogenen horizontalen Regulierungsansatz für KI, der die Verhältnismäßigkeit wahrt und auf die Mindestanforderungen beschränkt ist, die zur Bewältigung der in Verbindung mit KI auftretenden Risiken und Probleme notwendig ist, ohne die technologische Entwicklung übermäßig einzuschränken oder zu behindern oder anderweitig die Kosten für das Inverkehrbringen von KI-Lösungen unverhältnismäßig in die Höhe zu treiben. Der Vorschlag zielt auf einen robusten und flexiblen Rechtsrahmen ab. Einerseits ist der Vorschlag in seinen grundlegenden Regulierungsentscheidungen umfassend und zukunftsorientiert. Dies gilt auch für die von den KI-Systemen zu erfüllenden und auf Grundsätzen beruhenden Anforderungen. Andererseits wird ein Regulierungssystem geschaffen, das die Verhältnismäßigkeit wahrt und auf genau definierte Risiken ausgerichtet ist. Dieser Regulierungsansatz schafft keine unnötigen Handelsbeschränkungen und der Gesetzgeber schreitet nur in solchen konkreten Situationen ein, in denen ein berechtigter Anlass für Bedenken besteht oder in denen vernünftigerweise davon ausgegangen werden kann, dass solche Bedenken in naher Zukunft auftreten werden. Gleichzeitig enthält der Rechtsrahmen Mechanismen, mit denen er flexibel und dynamisch an die technologische Entwicklung und neue bedenkliche Situationen angepasst werden kann.

Der Vorschlag enthält harmonisierte Vorschriften für die Entwicklung, das Inverkehrbringen und die Verwendung von KI-Systemen in der Union, die im Verhältnis zu den Risiken stehen. Die vorgeschlagene Begriffsbestimmung für KI ist zukunftstauglich. Während einige besonders schädliche KI-Praktiken, die gegen die Werte der Union verstoßen, verboten sind, werden für die Zwecke der Strafverfolgung für bestimmte Anwendungen biometrischer Fernidentifizierungssysteme konkrete Beschränkungen und Sicherheitsmaßnahmen vorgeschlagen. Der Vorschlag enthält eine solide Risiko-Methodik zur Einstufung von Hochrisiko-KI-Systemen, d. h. solchen Systemen, die erhebliche Risiken für die Gesundheit und Sicherheit oder die Grundrechte von Personen bergen. Solche KI-Systeme müssen horizontalen Auflagen für vertrauenswürdige KI genügen und Konformitätsbewertungsverfahren unterzogen werden, bevor sie in der Union in Verkehr gebracht werden dürfen. Damit die Sicherheit und die Einhaltung bestehender Rechtsvorschriften zum Schutz der Grundrechte über den gesamten Lebenszyklus von KI-Systemen hinweg gewahrt bleiben, werden Anbietern und Nutzern dieser Systeme berechenbare, verhältnismäßige und klare Pflichten auferlegt. Für einige KI-Systeme werden nur minimale Transparenzpflichten vorgeschlagen, insbesondere für den Einsatz von Chatbots oder „Deepfakes“.

Die vorgeschlagenen Vorschriften werden von den Mitgliedstaaten mittels einer Leitungsstruktur durchgesetzt, die auf bereits vorhandenen Strukturen aufbaut, sowie mittels eines Kooperationsmechanismus auf Unionsebene, auf der ein Europäischer Ausschuss für künstliche Intelligenz eingesetzt wird. Zusätzliche Maßnahmen werden zur Unterstützung von Innovation, vor allem in Form von KI-Reallaboren, sowie zur Verringerung des Verwaltungsaufwands und zur Förderung von kleinen und mittleren Unternehmen (KMU) und Startups vorgeschlagen.