EU-Kommission: So will Brüssel KI bändigen

von | 9 Jan 2024

Unternehmen in Deutschland haben bereits 2019 knapp 60 Milliarden Euro Umsatz mit KI-Produkten oder KI-Dienstleistungen generiert. Weltweit wird damit gerechnet, dass sich der Umsatz mit Unternehmensanwendungen im Bereich der Künstlichen Intelligenz (KI) von 2020 bis 2025 mehr als versechsfachen wird.

Auch Rechtsanwälte, Vollzugsbeamte, Migrationsbeauftragte und Strafbehörden ließen die KI für sich arbeiten und sammelten Personendaten ohne, dass die betreffenden Personen davon wussten. War das noch mit demokratischen Rechten zu vertreten?

Immer mehr Menschen fragten sich, ob sich eine KI einfach über die demokratischen Gesetze hinwegsetzen dürfe oder wer verantwortlich zu machen sei, wenn sich ein Mensch durch eine KI-Anwendung in seinen Persönlichkeitsrechten benachteiligt sieht? Man braucht klare, umfassende und detaillierte Gesetze und empfindliche Strafen, wenn diese missachtet werden.

Eine Kleine Anfrage im Bundestag

(https://www.bundestag.de/resource/blob/940164/51d5380e12b3e121af9937bc69afb6a7/WD-5-001-23-pdf-data.pdf)

Im Januar 2023 stellten einige Abgeordnete eine Kleine Anfrage an den wissenschaftlichen Dienst des Deutschen Bundestages. Sie wollten wissen, ob in Deutschland Vorschriften mit spezifischen Regeln in Bezug auf die Anwendung von künstlicher Intelligenz existierten oder ob die Verabschiedung solcher Vorschriften geplant sei.

Der wissenschaftliche Dienst antwortete, dass es in Deutschland keine spezifischen, d. h. auf KI-Systeme besonders zugeschnittenen Gesetze und Verordnungen gäbe. Darüber hinaus richte sich die Anwendung KI-basierter Technologien und Informationssysteme nach den allgemeinen Vorschriften, welche keine ausdrücklich auf KI bezogenen Anforderungen aufstellten. Weiterhin plane Deutschland zur Zeit keine Normgebungsverfahren zum Erlass von spezifischen auf KI-Systeme besonders zugeschnittene Gesetzen oder Rechtsverordnungen.

Europa muss handeln

Die Europäische Union hat nun die Pflicht, einen gültigen Rechtsrahmen zu schaffen, der gewährleistet, dass KI-Systeme, die in der Union auf den Markt gebracht und genutzt werden, sicher sind und die bestehenden Grundrechte und Werte der Union achten. Ziel der Europäischen Union ist es, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle zu übernehmen.

In diesem Zusammenhang soll ein EU-Vorschlag das Kernelement einer EU-Strategie für den digitalen Binnenmarkt bilden. Er soll das reibungslose Funktionieren des Binnenmarktes gewährleisten, indem harmonisierte Vorschriften erlassen werden. Diese sollen insbesondere für die Entwicklung, das Inverkehrbringen und die Nutzung von Produkten und Dienstleistungen gelten, bei denen KI-Technologien oder autonome KI-Systeme zum Einsatz kommen. Darüber hinaus fordert das Europäische Parlament ausdrücklich den Schutz ethischer Grundsätze.

Legislativvorschlag der Europäischen Kommission

Im April 2021 hat die Europäische Kommission einen Legislativvorschlag für ein europaweit abgestimmtes Konzept für die menschlichen und ethischen Aspekte der KI vorgelegt. Ziel des Vorschlags ist es, gemeinsame Anforderungen an die Gestaltung und Entwicklung bestimmter KI-Systeme festzulegen, die vor dem Inverkehrbringen dieser Systeme zwingend erfüllt sein müssen. Diese Anforderungen sollen durch harmonisierte technische Normen weiter konkretisiert werden. Der Vorschlag befasst sich auch mit der Situation nach dem Inverkehrbringen von KI-Systemen, indem er einen koordinierten Ansatz für die nachträgliche Kontrolle vorsieht. Es wird vorgeschlagen, dass sich alle Mitgliedsstaaten auf eine  zukunftsorientierte Definition von KI einigen.

Nach einem risiko-basierten Ansatz teilt der Vorschlag der Europäischen Kommission die KI-Systeme in drei Klassen ein: KI-Systeme mit unzumutbarem Risiko, mit hohem Risiko und solche mit niedrigem Risiko.

Schädliche KI-Praktiken sind verboten

Verboten sind KI-Systeme, die Menschen unterschwellig so beeinflussen, dass sie sich selbst oder anderen physischen oder psychischen Schaden zufügen können. Außerdem dürfen KI-Technologien nicht die Schwäche oder Verletzlichkeit einer bestimmten Personengruppe aufgrund ihres Alters oder einer körperlichen oder geistigen Behinderung ausnutzen. Behörden dürfen KI-Technologien auch nicht einsetzen, um die Vertrauenswürdigkeit natürlicher Personen auf der Grundlage ihres sozialen Verhaltens oder bekannter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale zu bewerten oder einzustufen.

Der Einsatz von biometrischen Echtzeit-Fernidentifizierungssystemen an öffentlich zugänglichen Orten zu Zwecken der Strafverfolgung ist ebenfalls verboten. Ausnahmen gelten jedoch, wenn KI-Systeme eingesetzt werden, um gezielt nach bestimmten potenziellen Opfern von Straftaten oder vermissten Kindern zu suchen oder um eine Gefahr für natürliche Personen oder einen Terroranschlag abzuwenden. Auch Strafverfolgungsbehörden dürfen KI-Technologie einsetzen, um einen Täter oder Verdächtigen einer Straftat, die mit einer Freiheitsstrafe im Höchstmaß von mindestens drei Jahren bedroht ist, zu identifizieren und strafrechtlich zu verfolgen.

Für jeden einzelnen Einsatz eines biometrischen Echtzeit-Fernerkennungssystems an öffentlich zugänglichen Orten zu Strafverfolgungszwecken ist eine vorherige Genehmigung erforderlich.

Hochrisiko-KI-Systeme

KI-Systeme mit hohem Risiko sind Systeme, von denen erhebliche Gefahren für die Gesundheit, die Sicherheit oder die Grundrechte von Personen ausgehen. Solche KI-Systeme sollen bestimmte Anforderungen erfüllen und Konformitätsbewertungsverfahren durchlaufen, bevor sie in der Union in Verkehr gebracht werden dürfen. Den Anbietern und Nutzern solcher Systeme sollen vorhersehbare, verhältnismäßige und klare Verpflichtungen auferlegt werden.

An Hochrisiko-KI-Systeme werden hohe Anforderungen in Bezug auf Datenqualität, Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Überwachung, Genauigkeit und Robustheit gestellt. Für diese Systeme ist ein Risikomanagementsystem einzurichten, anzuwenden, zu dokumentieren und aufrechtzuerhalten. Das Risikomanagementsystem ist als kontinuierlicher Prozess während des gesamten Lebenszyklus eines KI-Systems zu verstehen, der regelmäßig zu testen und zu aktualisieren ist.

Bevor ein KI-System mit hohem Risiko in Verkehr gebracht oder in Betrieb genommen wird, soll eine technische Dokumentation erstellt werden. Diese muss eine allgemeine Beschreibung des Systems sowie eine detaillierte Beschreibung der Komponenten des KI-Systems und seines Entwicklungsprozesses enthalten. Darüber hinaus sind detaillierte Angaben zur Überwachung, zum Betrieb und zur Kontrolle des KI-Systems zu machen.

KI-Systeme mit niedrigem Risiko

Für einige KI-Systeme werden nur minimale Transparenzanforderungen vorgeschlagen, insbesondere für den Einsatz von Chatbots oder „Deepfakes“ sowie für KI-gestützte Videospiele oder Spam-Filter. Die überwiegende Mehrheit der KI-Systeme fällt in diese Kategorie. Der Verordnungsentwurf greift hier nicht ein, da diese KI-Systeme nur ein geringes oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen.

Überwachung der Vorschriften

Die EU-Mitgliedstaaten sollen die Umsetzung der vorgeschlagenen Regelungen durch ihre nationalen Aufsichtsbehörden überwachen. Diese sollen die Marktüberwachung übernehmen und der Europäischen Kommission regelmäßig Bericht erstatten. Die Marktüberwachungsbehörden sollen uneingeschränkten Zugang zu allen Daten, Anwendungsprogrammierschnittstellen (API) oder anderen technischen Mitteln und Instrumenten erhalten. Auf Unionsebene soll ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden, der einen Kooperationsmechanismus entwickeln soll. Darüber hinaus sollen Innovationen, insbesondere in Form von KI-Reallaboren, unterstützt und kleine und mittlere Unternehmen (KMU) sowie Start-ups gefördert werden.

Sanktionen

Die Mitgliedstaaten sollen Sanktionsvorschriften erlassen. Der Legislativvorschlag sieht jedoch bereits erhebliche Geldbußen vor, z.B. bis zu 30.000.000 EUR für die Nichteinhaltung des Verbots von KI-Praktiken und die Nichtkonformität des KI-Systems mit den festgelegten Anforderungen, bis zu 20.000.000 EUR für die Nichteinhaltung von Anforderungen oder Pflichten und bis zu 10.000.000 EUR für die Erteilung falscher, unvollständiger oder irreführender Auskünfte an die zuständigen nationalen Behörden auf deren Anfrage.

Das hier Vorgestellte ist der Vorschlag der Europäischen Kommission, dem Exekutivorgan der Europäischen Union. Die Exekutive kann jedoch keine Gesetze verabschieden. Daher wird dieser Vorschlag nun vom europäischen Legislativorgan geprüft werden müssen und erst nach der Zustimmung beider Kammern, dem Europäischen Parlament und dem Rat der Europäischen Union, wird dieser Vorschlag Gesetz. Wie lange wird dies dauern?

Zur englischen Übersetzung des Artikels: EU Commission: Brussels on taming AI

WordPress Cookie Plugin von Real Cookie Banner