top-leiste arbeitsrecht gewerblicher-rechtsschutz medienrecht-urheberrecht haftungsrecht-handelsrecht-gesellschaftsrecht

EU-Kommission legt weltweit ersten Rechtsrahmen für künstliche Intelligenz (KI) vor – Folgen für das deutsche Arbeitsrecht

von ZELLER & SEYFERT

Mit dem am 21.04.2021 veröffentlichten Beschluss für „vertrauenswürdige künstliche Intelligenz“ soll der Einsatz dieser Systeme reguliert werden. Dabei wird ein objektiver Maßstab der Risikobewertung angewendet, bei dem es vier unterschiedliche Risikostufen gibt. Wie diese gestaltet sind und welche praktischen Auswirkungen der Beschluss hat, erfahren Sie in diesem Beitrag von ZELLER & SEYFERT. Vorweg so viel: Unserer Einschätzung nach ist es wahrscheinlich, dass sämtliche Maßnahmen künstlicher Intelligenz mit Bezug zum deutschen Arbeitsrecht erheblicher Regulierung unterliegen werden.

Künstliche Intelligenz (KI) ist die Bezeichnung für eine Technologie, die sowohl erhebliches Nutzenpotenzial bietet als auch neue Gefahren und Bedrohungen für die Sicherheit von Menschen und Systemen darstellt. Um die Bedeutung möglicher Risiken zu bewerten, werden diese in vier Stufen kategorisiert: 1. unannehmbar, 2. hoch, 3. gering, 4. minimal. Für alle Stufen gibt es unterschiedliche Kontrollmechanismen.

Stufe 1: Unannehmbares Risiko

Zuerst sollen KI-Systeme verboten werden, die als klare Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen gelten. Darunter werden zum einen solche erfasst, die menschliches Verhalten manipulieren, um den freien Willen der Nutzer zu umgehen. Außerdem sind Anwendungen betroffen, die den Behörden eine Bewertung des sozialen Verhaltens ermöglichen (Stichwort: Social Scoring in China). Als Beispiel für KI-Systeme, die menschliches Verhalten manipulieren, kann dabei Spielzeug mit einem Sprachassistenten angeführt werden, das Minderjährige zu gefährlichem Verhalten ermuntert.

Stufe 2: Hohes Risiko

Für Systeme KI-Systeme mit einem hohen Risiko werden strenge Vorgaben gelten, die erfüllt sein müssen, bevor die Anwendungen auf den Markt gebracht werden dürfen. Dazu zählen:

• angemessene Risikobewertungs- und Risikominimierungssysteme,
• hohe Qualität der in das System eingespeisten Datensätze, um Risiken und diskriminierende Ergebnisse zu minimieren,
• Protokollierung der Vorgänge, um die Rückverfolgbarkeit von Ergebnissen zu ermöglichen,
• ausführliche Dokumentation mit allen erforderlichen Informationen über das System und seinen Zweck, damit die Behörden seine Konformität beurteilen können,
• klare und angemessene Informationen für die Nutzer,
• adäquate menschliche Aufsicht zur Minimierung der Risiken sowie
• maximale Robustheit, Sicherheit (vor etwaigen Hackerangriffen) und Genauigkeit.

Dies gilt jedoch nur für solche Systeme, die während ihrer Verwendung erhebliche Schäden anrichten könnten. Betroffen sind vielfältige Bereiche des täglichen Lebens.

Kritische Infrastrukturen
Risiken der Stufe 2 entstehen u. a. bei der Benutzung in kritischen Infrastrukturen (Beispiel: Autopilot im Verkehr). Auch bei der Schul- oder Berufsausbildung findet diese Stufe Anwendung, wenn der Zugang einer Person zu Bildung und zum Berufsleben beeinträchtigt werden könnte (Beispiel: Bewertung von Prüfungen).

Produkte und Dienstleistungen
Auch Sicherheitskomponenten von Produkten können betroffen sein, z. B. eine KI-Anwendung für die roboterassistierte Chirurgie. Im Bereich des deutschen Arbeitsrechts, der Beschäftigung von Arbeitnehmern, dem Personalmanagement sowie beim Zugang zu selbstständiger Tätigkeit kann der Einsatz von KI mit Risiken der Stufe 2 verbunden sein (Beispiel: Software zur Auswertung von Lebensläufen für Einstellungsverfahren). Bei wichtigen privaten oder öffentlichen Dienstleistungen sollen ebenfalls erhöhte Sicherheitsanforderungen gelten (Beispiel: Prüfung der Kreditwürdigkeit).

Grundrechte und Rechtspflege
Bei der Strafverfolgung gilt Stufe 2, wenn in die Grundrechte der Menschen eingegriffen werden könnte (Beispiel: Bewertung der Verlässlichkeit von Beweismitteln). Für Anwendungen im Zusammenhang mit Migration, Asyl und Grenzkontrollen, z. B. bei der Überprüfung der Echtheit von Reisedokumenten, gelten ebenfalls hohe Sicherheitsanforderungen. Schließlich fallen auch KI-Anwendungen in der Rechtspflege und bei demokratischen Prozessen in diese Kategorie (Beispiel: Anwendung der Rechtsvorschriften auf konkrete Sachverhalte).

Einschränkungen bei Stufe 2
In den genannten Bereichen der Risikostufe 2 ist die Nutzung der künstlichen Intelligenz nicht per se verboten, an die Verwendung werden jedoch (berechtigterweise) hohe Anforderungen gestellt. Ein Fehler bzw. sogar der Missbrauch dieser Systeme ist nie ganz auszuschließen. Deshalb müssen stetige Kontrollen erfolgen und entsprechende Sicherheitsvorkehrungen zur Gefahrenabwehr gewährleistet sein. Dies kann für Regelungen zur künstlichen Intelligenz im Arbeitsrecht Bedeutung erlangen.

Auch unter dem Gesichtspunkt des Datenschutzes ist diese Aufsicht angebracht und erforderlich. Dies gilt insbesondere für alle Arten der biometrischen Fernidentifizierungssysteme. Ihre Echtzeit-Nutzung im öffentlichen Raum zu Strafverfolgungszwecken wird grundsätzlich verboten. Der Einsatz wird nur erlaubt, wenn dies unbedingt erforderlich ist. Beispiele sind die Suche eines vermissten Kindes, die Abwehr einer konkreten und unmittelbaren terroristischen Bedrohung oder die Identifikation und Verfolgung von Tatverdächtigen schwerer Straftaten.

Hervorzuheben ist, dass eine solche Nutzung von KI-Systemen durch eine Justizbehörde oder eine andere unabhängige Stelle genehmigt werden muss. Wie dies jedoch genau in europäisches oder deutsches Recht umgesetzt wird, ist bisher nicht geregelt. Absehbar ist aber, dass eine erhebliche Regulierung sämtlicher Maßnahmen mit Bezug zu arbeitsrechtlichen Regelungen in Deutschland erfolgen wird.

Stufe 3: Geringes Risiko

Beim Umgang mit KI-Systemen wie Chatbots sollte den Nutzern bewusst sein, dass sie es mit einer Maschine zu tun haben. Dies ist erforderlich, damit sie in voller Kenntnis der Sachlage entscheiden können, ob sie die Anwendung weiter nutzen wollen oder nicht. Deshalb gelten für solche Systeme umfangreichere Transparenzpflichten.

Stufe 4: Minimales Risiko

Systeme, von denen nur ein minimales Risiko ausgeht, unterliegen keinen Einschränkungen der Nutzung. So soll beispielsweise bei KI-gestützten Videospielen oder Spamfiltern der Verordnungsentwurf nicht eingreifen.

Wie erfolgt die Kontrolle der Normen in der Praxis?

Die Kontrolle dieser Vorschriften soll in der Praxis durch die zuständigen nationalen Marktüberwachungsbehörden erfolgen. Ferner wird die Schaffung eines europäischen Ausschusses für künstliche Intelligenz angeregt. Dieser soll die Umsetzung begleiten und die Ausarbeitung von Normen auf dem Gebiet der KI vorantreiben.

Welche praktischen Auswirkungen hat die KI-Regulierung?

Für Arbeitgeber stellt sich die Frage, welche praktische Relevanz dieser regulatorische Vorschlag haben kann. Es ist zu erwarten, dass KI-Systeme in der Zukunft omnipräsent sein werden. Die Digitalisierung wird mit zunehmender Geschwindigkeit voranschreiten und die meisten Lebens- und Arbeitsbereiche weiter durchdringen.

Daraus ergibt sich die Frage, ob Innovationen künstlicher Intelligenz politischer Regulierung bedürfen und wenn ja, inwieweit. Die EU-Kommission hat diese grundsätzliche Frage mit dem vorliegenden Beschluss bejaht – was nicht überrascht, da der Kommission eine gewisse Neigung zur Regulierung sämtlicher Lebensbereiche nachgesagt wird.

Sollte der vorliegende Beschluss in mittelbar oder unmittelbar geltendes Recht umgesetzt werden, wird aus Arbeitgebersicht darauf zu achten sein, dass die auferlegten Kontroll- und Sicherheitsmechanismen nicht auch Innovationen verhindern, die gesamtgesellschaftlich wünschenswert wären, weil ihnen zahlreiche Chancen innewohnen. Denn nach dem bisherigen Stand ist eine erhebliche Regulierung sämtlicher Maßnahmen künstlicher Intelligenz mit Bezug zum deutschen Arbeitsrecht zu erwarten.

Ich nutze KI-Systeme – besteht für mich Handlungsbedarf?

Setzten Sie KI-Systeme ein und haben Fragen dazu? Dann stehen Ihnen unsere fachkundigen Anwälte von ZELLER & SEYFERT gerne zur Verfügung. Unser Arbeitsrechtsexperte Rechtsanwalt Dr. Christian Zeller verfügt über langjährige Erfahrung im Umgang mit vergleichbaren Fällen. Gerne ist er im Rahmen einer kostenfreien Ersteinschätzung bereit, die Besonderheiten Ihres Falles zu identifizieren. Sie erreichen ihn bequem über unser Kontaktformular, direkt per E-Mail an mail@zellerseyfert.com oder einfach per Telefon (+49 (0) 30-40 36 785-80).

Zurück

Einen Kommentar schreiben

Live Chat - Protokoll

_+
img

Live Chat - Protokoll