Suche
Contact
Symbolbild zu KI-Compliance: Fiberoptik
18.02.2025 | KPMG Law Insights

KI-Compliance: Wichtige rechtliche Aspekte im Überblick

Menschliche Intelligenz schöpft aus Erfahrung, Emotion und Intuition. Künstliche Intelligenz (KI) hingegen verarbeitet Unmengen an Daten in Sekundenbruchteilen. Menschliche Intelligenz denkt voraus, zieht Schlüsse und wägt rechtliche und moralische Konsequenzen ab. Künstliche Intelligenz hingegen handelt exakt so, wie sie programmiert wurde und berücksichtigt rechtliche Stolpersteine nur, wenn der Mensch sie antizipiert hat. Menschliche Intelligenz kann sich flexibel an unvorhergesehene Situationen anpassen, während KI stur bestehende Muster reproduziert – selbst dann, wenn diese gegen Gesetze oder ethische Standards verstoßen. Hier zeigt sich, wie wichtig KI-Compliance ist.
Der Einsatz von KI-Systemen kann neben dem 2024 in Kraft getretenen AI Act zahlreiche weitere Rechtsvorschriften in unterschiedlichen Gesetzen verletzen. Die Regulierungsdichte nimmt stetig zu und mit ihr auch das Risiko von Compliance-Verstößen, Sanktionen und Klagen.

Datenschutz: Vorsicht bei der Eingabe von Informationen

Für die Verarbeitung personenbezogener Daten gilt die Datenschutz-Grundverordnung (DSGVO). Diese verlangt für die Weitergabe personenbezogener Daten eine Rechtsgrundlage, also entweder ein Gesetz oder die Einwilligung der Dateninhaber:innen. Für die Datenübermittlung in Drittländer gelten weitere spezielle Anforderungen.
Gibt man Informationen in Large Language Modelle wie ChatGPT, Copilot und Google Gemini ein, werden diese an die Server der Betreiber übermittelt und dort zur Erstellung der geforderten Texte verarbeitet. Die KI nutzt und speichert die Informationen außerdem zu Trainingszwecken. Die Server befinden sich oftmals in den USA, sodass die Daten die EU verlassen. Willigen die Nutzer:innen eventuell in die Datenverarbeitung ein, indem sie die Informationen in den Chatbot eingeben? Wohl eher nicht. Denn die Nutzer:innen können zum Zeitpunkt der Eingabe ihrer Daten nur schwer nachvollziehen, was damit passiert. Und sie wissen nicht, ob bei der Verarbeitung die Vorschriften der DSGVO eingehalten werden. An einer Einwilligung fehlt es offensichtlich, wenn die Person in den Chatbot gar nicht ihre eigenen Daten eingibt, sondern fremde.
Die KI verarbeitet Daten also regelmäßig ohne die erforderliche Rechtsgrundlage. Das ist ein Problem sowohl für den Betreiber des KI-Systems als auch für die Nutzer:innen.

Geistiges Eigentum: KI bedient sich auch bei geschützten Werken

Generative KI, die Texte, Bilder oder Videos erstellt, bedient sich sowohl bei den von Nutzer:innen eingegebenen Materialien als auch bei Inhalten aus dem Internet. Die Tools können aktuell nicht differenzieren zwischen geschützten und nicht-geschützten Inhalten. Zwar verarbeitet die KI die Inhalte zu neuen Werken. Die Urheberrechte der Originalurheber:innen können aber in Einzelfällen auch nach der Bearbeitung fortbestehen. Bei reinen Reproduktionen und Übersetzungen urheberrechtlich geschützter Werke ist das der Fall. Urheberrechtlich kritisch ist es auch, wenn eine KI einen Songtext wiedergibt, der noch nicht gemeinfrei ist, oder eine Szene aus einem bestehenden Drehbuch umschreibt. Wenn der Output nah am Originalwerk orientiert ist, kann die Umgestaltung nicht frei verwendet werden, insbesondere wenn wiedererkennbare Charaktere mit eigenem Urheberrechtsschutz betroffen sind. Die Erstellung von Fachtexten durch generative KI ist weniger problematisch, da Fachtexte nach dem EuGH hohe Anforderungen erfüllen müssen, um Urheberrechtsschutz zu genießen.
Klärungsbedürftig könnte im Einzelfall auch die Frage sein, wer Urheber der KI-generierten Werke ist. Insbesondere ob am Output der KI überhaupt ein Urheberrecht entstehen kann. Nach deutschem Urheberrecht kann lediglich ein Mensch Schöpfer eines Werkes und damit Urheber sein. Auch der EuGH verlangt eine freie kreative Entscheidung für die Entstehung eines Urheberrechts. Werke, die allein durch KI entstanden sind, erfüllen diese Voraussetzung eher nicht.

Arbeitsrecht: Wenn die KI rassistisch agiert

Immer öfter übernimmt die KI auch Tätigkeiten des HR-Bereichs, zum Beispiel im Recruiting. Wird sie zur Bewerberauswahl eingesetzt, orientiert sie sich möglicherweise an Merkmalen der in der Vergangenheit eingestellten Kandidat:innen. Waren das in der Mehrzahl weiße Männer, bevorzugt das KI-Tool aufgrund fehlender anderweitiger Programmierung eventuell männliche Kandidaten mit weißer Hautfarbe. In Deutschland wäre das ein klarer Verstoß gegen das Allgemeine Gleichbehandlungsgesetz (AGG). Generell hat künstliche Intelligenz ein hohes Diskriminierungspotenzial. Solche Verstöße sollten Unternehmen daher unbedingt antizipieren und die KI entsprechend programmieren.
Beim Einsatz von KI im Unternehmen hat auch der Betriebsrat mitzubestimmen. Zumindest dann, wenn der Arbeitgeber die Nutzung vorschreibt oder aber eigene KI-Systeme zur Verfügung stellt.

Der AI Act ist eine große rechtliche Herausforderung

Aktuell die größte regulatorische Herausforderung ist wohl die am 1. August 2024 in Kraft getretene KI-Verordnung (AI Act) und die zugehörige KI-Haftungsrichtlinie. Die Regelungen des AI Act werden gestaffelt wirksam; die ersten Vorgaben gelten bereits ab Februar 2025. Bis zu 35 Millionen Euro oder 7 Prozent des gesamten weltweiten Jahresumsatzes sollen die Bußgelder betragen können – mehr als nach der DSGVO.
Der AI Act betrifft nahezu alle Unternehmen, die KI-Systeme in der EU in Verkehr bringen, anbieten oder nutzen. Verpflichtet sind Anbieter, Einführer, Händler und Nutzende von KI-Produkten und -Diensten in der EU.
Die Verordnung verfolgt einen risikobasierten Ansatz und teilt KI-Systeme in Risikoklassen ein. Entscheidend ist dabei die Art der Anwendung. Systeme mit unannehmbarem Risiko werden verboten, während Hochrisikosysteme strenge Anforderungen erfüllen müssen. Für General Purpose AI (GPAI)-Modelle gelten eigene Anforderungen. Diese Modelle, die vielseitige Aufgaben erfüllen können, werden in gewöhnliche und systemisch riskante GPAI-Modelle eingeteilt.

KI-Compliance gehört in die Due Diligence

Wer im Zeitalter von KI ein Unternehmen erwirbt, kauft im Prinzip eine Black Box und erfährt erst später, ob sie einen Schatz oder eine tickende Zeitbombe enthält. Es sei denn, Käufer und Investoren berücksichtigen in der Due Diligence die KI-Compliance ausreichend. Sie sollten vor einer Kaufentscheidung sicherstellen, dass die im Target eingesetzten KI-Technologien im Einklang mit geltendem Recht stehen.

Wer haftet für fehlerhafte Entscheidungen der KI?

KI-Systeme agieren meistens nicht aufgrund menschlicher Einzelentscheidungen, sondern auf der Basis komplexer Algorithmen, die nicht immer vollständig nachvollziehbar sind. Wer also haftet für fehlerhafte Entscheidungen der KI?
Geltende nationale Haftungsvorschriften scheinen hier nicht zu passen. Insbesondere die Vorschriften über die verschuldensabhängige Haftung eignen sich nicht für die Beurteilung von Haftungsansprüchen für durch KI verursachte Schäden. Auch die neue Produkthaftungsrichtlinie ändert daran nicht viel, denn KI-Systeme sind oft nicht so transparent, dass Fehler in der Programmierung bzw. Entwicklung nachgewiesen werden können. Eine neue EU-Richtlinie könnte den Beweis erleichtern. Die geplante KI-Haftungsrichtlinie (KI-Haft-RL) soll künftig die außervertragliche Haftung für Schäden durch den Einsatz von künstlicher Intelligenz europaweit regeln. Art. 4 des Vorschlags regelt die Beweislast. Unter bestimmten Umständen soll ein ursächlicher Zusammenhang zwischen dem Verschulden des Beklagten und dem vom KI-System hervorgebrachten Ergebnis vermutet werden.
Der weitere Verlauf des Prozesses zur KI-Haftungsrichtlinie ist derzeit jedoch ungewiss. Es ist momentan nicht absehbar, ob und in welchem Zeitraum eine solche Richtlinie verabschiedet werden wird. Damit kann nicht prognostiziert werden, wann eine verbindliche Haftungsregelung für künstliche Intelligenz auf EU-Ebene tatsächlich bestehen wird.

Auch ethische Aspekte spielen eine Rolle

Neben rechtlichen Risiken bringen KI-Tools oftmals auch ethische Fragen mit sich. Die Folge von unethischem Verhalten sind Reputationsschäden.
Unternehmen sollten frühzeitig KI-Strategien und entsprechende Governance-Strukturen entwickeln, um sämtliche rechtlichen und ethischen Aspekte beim Einsatz von KI-Systemen ausreichend zu würdigen und damit Risiken zu vermeiden. Hierfür sollten Rechtsanwält:innen idealerweise Hand in Hand mit Compliance- & IT-Expert:innen, Data Scientists und Spezialist:innen für Cyber Security beraten.

 

Weitere Beiträge zum Thema

Der AI Act kommt: EU möchte Risiken von KI in den Griff bekommen
AI Act und generative KI: Was Unternehmen jetzt wissen sollten
ChatGPT bei der Arbeit nutzen? Nicht immer eine gute Idee
KI und Arbeitsrecht: Das bedeutet der AI Act für den HR-Bereich
Warum KI-Compliance zu jeder Due-Diligence-Prüfung gehört
Warum der einzigartige EU AI Act so folgenreich für die Compliance ist
Künstliche Intelligenz verantwortungsbewusst nutzen

 

 

Explore #more

21.02.2025 | KPMG Law Insights

Geldwäscheprävention: BaFin fordert Finanzsektor zum Handeln auf

Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) ruft den Finanzsektor zur erhöhten Aufmerksamkeit bei der Geldwäscheprävention auf. In ihrem Bericht „Risiken im Fokus 2025“ warnt sie vor…

17.02.2025 | In den Medien

WirtschaftsWoche zeichnet KPMG Law und Konstantin von Busekist aus

KPMG Law und Konstantin von Busekist wurden im aktuellen WirtschaftsWoche-Ranking im Bereich Compliance als TOP Kanzlei 2025 und Konstantin von Busekist als TOP Anwalt 2025…

17.02.2025 | In den Medien

Gastbeitrag in der InfrastrukturRecht: Gebührenunfähigkeit der Wasserkonzessionsabgabe

Das BVerwG hat am 09.10.2024 (9 B 5.24) die Beschwerde der Stadt Kassel gegen die Nichtzulassung der Revision im Urteil des VGH Kassel vom 30.11.2023…

13.02.2025 | Dealmeldungen

KPMG Law und KPMG beraten Windmöller & Hölscher beim Verkauf der Gewebemaschinensparte an Starlinger

KPMG Law und KPMG beraten die Windmöller & Hölscher KG (Windmöller & Hölscher) beim Verkauf der Gewebemaschinensparte an die Starlinger & Co Gesellschaft m.b.H (Starlinger).…

13.02.2025 | Dealmeldungen

KPMG Law hat die LDA Legal Data Analytics GmbH bei deren Kooperation mit dem Verlag C.H.Beck zur Entwicklung des Chat-Books „Frag den Grüneberg“ beraten

Die Digitalisierung verändert die Art und Weise, wie juristisches Wissen erschlossen und genutzt wird. Die LDA Legal Data Analytics GmbH (LDA) entwickelt KI-Lösungen für den…

11.02.2025 | KPMG Law Insights

Zugang der Kündigung zu den postüblichen Zustellungszeiten

Für ein Kündigungsschreiben, das mit der Deutsche Post AG versendet wurde, gilt nach Auffassung des Bundesarbeitsgerichts (BAG, Urteil vom 20. Juni 2024 – 2 AZR

11.02.2025 | KPMG Law Insights

Kooperationen zwischen Verwaltung und Start-ups – rechtliche Aspekte

Die Vorteile von Kooperationen des öffentlichen Sektors mit Start-ups liegen auf der Hand. Die Verwaltung steht vor der Aufgabe, die eigene Behörde sowie Einrichtungen der

10.02.2025 | Pressemitteilungen

Neue strategische Ausrichtung im Bereich Legal Operations Advisory bei KPMG Law: Legal Operations, Legal Technology und Legal Managed Services werden zusammengeführt

Durch die weitere Integration von Legal Operations, Legal Technology und Legal Managed Services vertieft KPMG Law seine Kompetenzen in dem Bereich, um Mandanten auf dem…

05.02.2025 | In den Medien

Gastbeitrag in der Innovative Verwaltung: Kommunen und Start-ups, das passt zusammen!

Wie bei einer guten Ehe gibt es auch bei einer Partnerschaft zwischen öffentlichem Sektor und Jungunternehmen einige rechtliche Aspekte zu beachten. Insbesondere an öffentliche Unternehmen…

05.02.2025 | Dealmeldungen

KPMG Law in Deutschland und KPMG Law in Österreich begleiten die WERTGARANTIE Group beim Erwerb der CLUB.WEISS Handels-GmbH

Die KPMG Law Rechtsanwaltsgesellschaft mbH, Deutschland (KPMG Law in Deutschland) und die Buchberger Ettmayer Rechtsanwälte GmbH (KPMG Law in Österreich) haben die WERTGARANTIE Group beim…

Kontakt

Francois Heynike, LL.M. (Stellenbosch)

Partner
Leiter Technologierecht

THE SQUAIRE Am Flughafen
60549 Frankfurt am Main

Tel.: +49-69-951195770
fheynike@kpmg-law.com

Dr. Daniel Taraz

Senior Manager

Fuhlentwiete 5
20355 Hamburg

Tel.: +49 40 360994-5483
danieltaraz@kpmg-law.com

© 2024 KPMG Law Rechtsanwaltsgesellschaft mbH, assoziiert mit der KPMG AG Wirtschaftsprüfungsgesellschaft, einer Aktiengesellschaft nach deutschem Recht und ein Mitglied der globalen KPMG-Organisation unabhängiger Mitgliedsfirmen, die KPMG International Limited, einer Private English Company Limited by Guarantee, angeschlossen sind. Alle Rechte vorbehalten. Für weitere Einzelheiten über die Struktur der globalen Organisation von KPMG besuchen Sie bitte https://home.kpmg/governance.

KPMG International erbringt keine Dienstleistungen für Kunden. Keine Mitgliedsfirma ist befugt, KPMG International oder eine andere Mitgliedsfirma gegenüber Dritten zu verpflichten oder vertraglich zu binden, ebenso wie KPMG International nicht autorisiert ist, andere Mitgliedsfirmen zu verpflichten oder vertraglich zu binden.

Scroll