Suche
Contact
19.10.2023 | KPMG Law Insights

Der AI Act kommt: EU möchte Risiken von KI in den Griff bekommen

Künstliche Intelligenz (KI) ist für viele Menschen der große Hoffnungsträger für die Wirtschaft, das Gesundheitswesen und die Wissenschaft. Doch es gibt auch eine ganze Menge Kritiker, die die Risiken der KI fürchten und nach Regeln verlangen. Mit dem AI Act (auch KI-Gesetz) will die EU-Kommission Künstliche Intelligenz für den europäischen Raum nun regulieren und so die größten Risiken für die Nutzerinnen und Nutzer in den Griff bekommen. Das EU-Parlament hat den Entwurf der Kommission bereits gebilligt. Das Gesetz soll 2024 in Kraft treten.

Die Idee: Je höher das Risiko eines KI-Systems, desto höher sind die damit verbundenen Anforderungen und Pflichten. Die KI-Regulierung soll das Vertrauen der Nutzerinnen und Nutzer in Künstliche Intelligenz innerhalb der EU stärken und so auch für Hersteller und Verwender von KI-Anwendungen bessere Voraussetzungen für Innovation schaffen.

Verstöße können Geldbußen von bis zu 30 Millionen Euro oder bis zu sechs Prozent des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres nach sich ziehen. Die Sanktionen sind damit mit denen der DSGVO zu vergleichen.

Der AI Act soll begleitet werden von einer KI-Haftungsrichtlinie. Und auch die Produkthaftungsrichtlinie möchte die EU-Kommission aktualisieren. Das Ziel: Haftungslücken beim Einsatz von KI-Systemen sollen geschlossen und Beweisschwierigkeiten bei Rechtsverletzungen im Zusammenhang mit Künstlicher Intelligenz begegnet werden.

Die Pflichten des EU AI Act treffen Hersteller, Anbieter und Händler von KI-Systemen, Produkthersteller, die KI-Systeme in ihre Produkte einbinden, sowie Nutzer von KI-Systemen, also praktisch jedes Unternehmen.

KI mit einem „unannehmbaren“ Risiko verbietet der AI Act

Der AI Act teilt Künstliche Intelligenz in drei Risikoklassen ein: „unannehmbar“, „hoch“ und „gering/minimal“.

Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen, die ein unannehmbares Risiko darstellen, sind verboten. Hierzu zählen insbesondere solche KI-Systeme, die dazu bestimmt sind, menschliches Verhalten unterschwellig nachteilig zu beeinflussen. Auch KI, die der Ausnutzung von Schwächen schutzbedürftiger Personen dient, ist nicht annehmbar und damit verboten. Untersagt ist auch die Nutzung von KI-Systemen durch Behörden zur Bewertung oder Klassifizierung von Vertrauenswürdigkeit natürlicher Personen („Social Scorings“). KI-Systeme dürfen ebenso grundsätzlich nicht zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eingesetzt werden.

Für KI-Systeme mit Risikoklasse „hoch“ gelten besondere Anforderungen

KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, werden als „Hochrisiko-KI-Systeme“ bezeichnet. Darunter fallen zum Beispiel die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit und die Versammlungs- und Vereinigungsfreiheit.

An die Gestaltung und Nutzung von Hochrisiko-KI-Systemen stellt der AI Act hohe Anforderungen, zum Beispiel an die Qualität der Datengrundlage, an die Sicherheit, die Funktionsweise, aber auch an die Dokumentation und Aufsicht durch Menschen sowie das Qualitäts- und Risikomanagement.

Die Konformität mit dem AI Act sollte mit einer CE-Kennzeichnung sichtbar gemacht werden.

Geringere Anforderungen an Systeme mit Risikoklasse „gering/minimal“

Sofern KI-Systeme nicht unannehmbar und auch nicht als Hochrisiko-KI-System einzustufen sind, fallen sie in die dritte Kategorie. Sie unterliegen dann weniger strengen Anforderungen. Anbieter solcher Systeme sollen aber dennoch Verhaltenskodizes erstellen und ermutigt werden, die Regelungen für Hochrisiko-KI-Systeme freiwillig anzuwenden. Zudem fordert der EU AI Act, dass auch KI-Systeme mit geringem Risiko sicher sein müssen, sofern sie in den Verkehr gebracht oder in Betrieb genommen werden. Sicherheit kann insbesondere dadurch gewährleistet werden, dass freiwillig die Regelungen für Hochrisiko-KI-Systeme beachtet werden.

Mit einer KI-Governance können Unternehmen Risiken absichern

Unternehmen sollten aktiv jede einzelne Anwendung evaluieren und in eine Governance-Struktur einbinden.

Auch alle KI-basierten Lösungen sollten betrachtet werden. Anwendungsfälle und die damit verbundenen Risiken sollten Unternehmen kennen. Hersteller eines Endprodukts müssen die im AI Act festgelegten Anbieterpflichten erfüllen und sicherstellen, dass das in das Endprodukt eingebettete KI-System den Anforderungen entspricht. Zu den Risiken gehört auch das Haftungsrisiko aus dem KI-Gesetz.

Beim Aufbau einer KI-Governance ist entscheidend, wer die Einstufung der Risiken verantwortet. Damit die Einschätzung möglich objektiv wird, sollte das Team interdisziplinär sein.

Wie ein KI-Risikomanagement gelingen kann

Für ein effektives Risikomanagement sollten Unternehmen Guidelines, Prozesse und Monitoring- Lösungen etablieren. Verschiedene Institutionen und Organisationen wie BSI, IDW oder DIN erarbeiten bereits Standards hierfür.

Es ist empfehlenswert, Compliance und Performance nicht voneinander zu trennen. Das Management und die IT sollten daher eng mit den Rechts- und Compliancefunktionen zusammenarbeiten. Nur wenn sichergestellt ist, dass Rechtsvorschriften eingehalten sind und Haftungsrisiken minimiert werden, kann das Potenzial von Künstlicher Intelligenz tatsächlich ausgeschöpft werden.

Auch wenn der AI Act noch nicht final verabschiedet wurde, können Unternehmen bereits jetzt mit der Risikoeinschätzung beginnen und eine entsprechende Governance etablieren.

Erfahren Sie mehr zum Thema „KI-Risiken im Blick“: Unser Whitepaper gibt Empfehlungen für eine KI-Governance, die eine verantwortungsvolle Nutzung der neuen Technologie sicherstellt. Jetzt herunterladen.

Autoren:
KPMG AG Wirtschaftsprüfungsgesellschaft: Dr. Justus H. Marquardt, Oleg Brodski
KPMG Law Rechtsanwaltsgesellschaft mbH: Francois Heynike

Explore #more

08.12.2023 | PR-Veröffentlichungen

Auszahlung kann riskant sein

In der aktuellen Ausgabe der Personalwirtschaft vom 30.11.2023, findet sich ein Gastbeitrag von Stefan Middendorf, und Gracjan Modrzyk. Einige Unternehmen denken wieder über…

07.12.2023 | PR-Veröffentlichungen

Institutional Money – Die Mischung macht’s

In der Institutional Money 04/2023 wird auf die Möglichkeiten des Quartier-Fonds eingegangen. Der Fonds eignet sich ideal für Immobilieninvestoren, da er sich nicht auf bestimmte

01.12.2023 | PR-Veröffentlichungen

WiWo: Best of Legal Awards – Philipp Glock Leader des Jahres

Am Donnerstagabend zeichnete die WirtschaftsWoche in Düsseldorf herausragende Projekte und Köpfe von Beratungsgesellschaften und Kanzleien aus und feierte mit mehr als 400 Gästen die zweite…

29.11.2023 | KPMG Law Insights

Energiewende eröffnet auch Geschäftschancen

Der aufwendige, kapitalintensive Transformationsprozess der Energiewirtschaft bietet Investoren und Kreditinstituten viel Potential Von Lars Christian Mahler und Marc Goldberg für Börsen-Zeitung, 29.11.2023 Der Beitrag von…

29.11.2023 | KPMG Law Insights

Gastbeitrag in der ZURe – KI und die Rechtsabteilung von morgen

In der aktuellen Ausgabe der ZURe (S.48 ff.) findet sich ein Gastbeitrag von KPMG Partnerin Sina Steidel-Küster (Regionalvorständin Südwest, Standortleiterin Stuttgart) und KPMG Law Partner…

29.11.2023 | KPMG Law Insights

Der Data Act kommt – finale Verabschiedung durch den Rat

Am 27. November 2023 hat nach dem Europäischen Parlament nun auch der Europäische Rat den Data Act angenommen. Damit ist dieser final verabschiedet. Die EU-Kommission…

28.11.2023 | KPMG Law Insights

Podcast-Serie „KPMG Law on air“: Earn-outs in M&A-Transaktionen

In Zeiten einer niedrigen oder unsicheren Konjunkturentwicklung halten sich Unternehmen mit Investitionen eher zurück und stehen nicht unbedingt Schlange, wenn andere Unternehmen zum Verkauf stehen.…

28.11.2023 | KPMG Law Insights

Podcast-Serie „KPMG Law on air“: So kann die öffentliche Hand klimaverträglich bauen

Was in Norwegen und in den Niederlanden schon gängige Praxis ist, ist in Deutschland noch Neuland: die Berücksichtigung der CO2e-Emissionen bei der Entscheidung über die…

27.11.2023 |

JUVE Rechtsmarkt 12/2023 – KPMG Reallabor

In der aktuellen Ausgabe des JUVE Rechtsmarkts findet sich im Artikel „Training macht den Meister“ (S. 23 ff.) ein Überblick über die Nutzung von generativer…

24.11.2023 | KPMG Law Insights

GEG 2024: Viele neue Pflichten, nicht nur für Heizungen

Am 1. Januar 2024 treten zahlreiche Neuregelungen des Gebäudeenergiegesetzes (GEG) in Kraft. Das Gesetz soll einen wesentlichen Beitrag zur Erreichung der nationalen Klimaschutzziele (Klimaneutralität bis…

Kontakt

Francois Heynike, LL.M. (Stellenbosch)

Partner
Leiter Technologierecht

THE SQUAIRE Am Flughafen
60549 Frankfurt am Main

tel: +49-69-951195770
fheynike@kpmg-law.com

© 2023 KPMG Law Rechtsanwaltsgesellschaft mbH, assoziiert mit der KPMG AG Wirtschaftsprüfungsgesellschaft, einer Aktiengesellschaft nach deutschem Recht und ein Mitglied der globalen KPMG-Organisation unabhängiger Mitgliedsfirmen, die KPMG International Limited, einer Private English Company Limited by Guarantee, angeschlossen sind. Alle Rechte vorbehalten. Für weitere Einzelheiten über die Struktur der globalen Organisation von KPMG besuchen Sie bitte https://home.kpmg/governance.

KPMG International erbringt keine Dienstleistungen für Kunden. Keine Mitgliedsfirma ist befugt, KPMG International oder eine andere Mitgliedsfirma gegenüber Dritten zu verpflichten oder vertraglich zu binden, ebenso wie KPMG International nicht autorisiert ist, andere Mitgliedsfirmen zu verpflichten oder vertraglich zu binden.

Scroll