2022 waren wir noch überrascht, als OpenAI sein KI-gesteuertes Programm Chat-GPT der Welt zur Verfügung stellte, und wir trauten uns nur langsam, es zu benutzen. Doch schon 2023 haben wir uns daran gewöhnt, unserem Computer Fragen zu stellen oder Anweisungen zu geben und eine ausführliche Antwort zu erhalten. Und während wir noch darüber diskutieren, ob und wie verlässlich diese Antworten sind, die uns eine Künstliche Intelligenz (KI) spontan gibt, hat die KI-Technologie bereits neue Arbeitshilfen auf den Markt gebracht. Mittlerweile gibt es nicht mehr nur einen, sondern viele Anbieter von KI-gesteuerten Werkzeugen.
Zuverlässigkeit & Sicherheit
Zu Beginn des Jahres 2023 wurde bereits eine Verbesserung der ursprünglichen Version GPT 3 von ChatGPT auf den Markt gebracht. Es folgten neue Sprach- und Bildfunktionen der Anwendung und neue Möglichkeiten, eine eigene, maßgeschneiderte Version von ChatGPT zu erstellen, ohne selbst programmieren zu können. Dennoch bleibt die Frage nach der Zuverlässigkeit und Sicherheit der KI-Technologie.
In Deutschland gibt es zwar Gesetze zum Datenschutz (Datenschutzgrundverordnung DSGVO), das Bürgerliche Gesetzbuch (BGB), das Gesetz gegen den unlauteren Wettbewerb (UWG), das Urhebergesetz (UrhG), das Allgemeine Gleichbehandlungsgesetz (AGG) und das Betriebsverfassungsgesetz (BetrVG), aber keine speziell auf den Einsatz von künstlicher Intelligenz zugeschnittenen Regelungen. Die Gesetzgebung der Europäischen Union soll diese Lücke schließen, da man davon ausgeht, dass eine so weitreichende Technologie auf Unionsebene geregelt werden muss, um eine einheitliche und klare Rechtslage zu schaffen.
Unsere Europaabgeordneten sind aktiv geworden und haben 2021 einen Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über harmonisierte Regeln für künstliche Intelligenz und zur Änderung bestimmter EU-Rechtsakte erarbeitet. Doch wie geht es weiter?
Die Executive und Legislative der EU
Eine der Aufgaben der Europäischen Kommission, dem „Exekutivorgan“ der EU, besteht darin, neue Rechtsvorschriften und Programme auszuarbeiten, die im allgemeinen Interesse der EU liegen. Bevor die Kommission einen Vorschlag unterbreitet, holt sie die Meinung der nationalen Parlamente und Regierungen, der Interessengruppen, der Experten und der Öffentlichkeit ein, indem sie alle dazu auffordert, sich online zu äußern.
Die Vorschläge der Kommission werden vom Europäischen Parlament und vom Rat der Europäischen Union, dem gesetzgebenden Organ, sorgfältig geprüft. Die endgültige Entscheidung über alle EU-Rechtsvorschriften liegt bei diesen beiden Organen. Sie können die Vorschläge abändern oder ganz ablehnen. Können sich Parlament und Rat nicht über einen Gesetzesvorschlag einigen, kommt kein neues Gesetz zustande.
Vorgehensweise der EU
Wenn also die Europäische Kommission einen Gesetzesvorschlag vorlegt, prüft das Europäische Parlament in erster Lesung diesen Vorschlag und kann ihn unverändert annehmen oder abändern.
Der Rat der Europäischen Union kann in erster Lesung beschließen, den Standpunkt des Parlaments anzunehmen, wodurch der Rechtsakt erlassen wird, oder er kann den Standpunkt des Parlaments abändern und den Vorschlag zur zweiten Lesung an das Parlament zurückverweisen. Die überwiegende Mehrheit der Vorschläge wird jedoch in diesem Stadium angenommen. So auch der Vorschlag über den Einsatz von KI.
Der Vorschlag vom Europäischen Parlament fast einstimmig angenommen
Das Europäische Parlament hat im Juni 2023 fast einstimmig beschlossen, den Vorschlag mit einigen Änderungen anzunehmen. Es will vor allem sicherstellen, dass in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. KI-Systeme sollten nicht automatisiert, sondern von Menschen überwacht werden, um schädliche Ergebnisse zu vermeiden. Die EU sollte in diesem Bereich eine Vorreiterrolle übernehmen. Das Parlament möchte außerdem eine einheitliche, technologieneutrale Definition von KI festlegen, die auf zukünftige KI-Systeme angewendet werden kann.
Die Mitglieder beschlossen Ausnahmen für Forschungstätigkeiten und KI-Komponenten, die unter Open-Source-Lizenzen zur Verfügung gestellt werden. Darüber hinaus sollen KI-Systeme, die ausschließlich für Zwecke der wissenschaftlichen Forschung und Entwicklung entwickelt werden, vom Anwendungsbereich der Verordnung ausgenommen werden.
Darüber hinaus haben die Abgeordneten die Einstufung der Hochrisikobereiche um die Beeinträchtigung der menschlichen Gesundheit, Sicherheit, Grundrechte oder der Umwelt erweitert. Auch KI-Systeme zur Beeinflussung von Wählern in politischen Kampagnen und Empfehlungssysteme auf Social-Media-Plattformen wurden in die Liste der Hochrisikobereiche aufgenommen.
Nun beginnen die Gespräche mit den EU-Mitgliedstaaten im Rat der Europäischen Union über die endgültige Ausgestaltung des Gesetzes, denn das Gesetz soll 2024 in Kraft treten.
EU beschließt KI-Gesetz
Anfang Dezember 2023 haben sich die Europäische Kommission, der Rat der Europäischen Union und das Europäische Parlament auf eine EU-Verordnung für Systeme mit künstlicher Intelligenz geeinigt. Nach langen und oft heftigen Diskussionen stehen nun die Regeln für den Einsatz von KI-Technologien fest.
Der risiko-basierte Ansatz des Vorschlags wurde angenommen
Gefährliche Praktiken werden verboten, wie z.B. der Einsatz von KI zur wahllosen Sammlung von Gesichtsbildern aus dem Internet, z.B. für biometrische Systeme zur Fernidentifizierung in Echtzeit. Außerdem dürfen KI-Technologien nicht dazu verwendet werden, Sicherheitslücken oder menschliche Schwächen auszunutzen oder den freien Willen zu manipulieren, was als kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen bezeichnet wird, z. B. sprachgesteuertes Spielzeug, das gefährliches Verhalten bei Kindern fördert.
Die KI-gesteuerte Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen ist ebenso verboten wie das Social Scoring zur Bewertung oder Klassifizierung der Vertrauenswürdigkeit natürlicher Personen (soziale Phänomene oder Eigenschaften von Personen werden mit Punkten bewertet, die dann mit Hilfe von Algorithmen ausgewertet werden, um diese Personen zu klassifizieren, vorherzusagen, was sie tun werden, oder um ihren Marktwert zu beschreiben).
Einige Ausnahmen können zur Verfolgung schwerer Straftaten zugelassen werden, z. B. Systeme zur nachträglichen biometrischen Fernidentifizierung, bei denen die Identifizierung erst mit erheblicher Verzögerung erfolgt, und nur mit richterlicher Genehmigung.
Riskante Anwendungen
Besonders strenge Vorschriften wurden für „hochwirksame“, breit einsetzbare KI-Modelle mit systemischem Risiko erlassen. Die Anbieter solcher Systeme wurden verpflichtet, Tests mit feindlichen Angriffen durchzuführen, der Kommission schwerwiegende Vorfälle zu melden und über ihre Energieeffizienz zu berichten. Die Kommission soll eine entsprechende Liste der betroffenen Systeme erstellen.
Darüber hinaus dürfen KI-Systeme mit hohem Risiko in der EU nur dann auf den Markt gebracht werden, wenn sie verbindliche Anforderungen erfüllen. Dies dürfte beispielsweise für Suchmaschinen mit KI-Unterstützung wie ChatGPT, Bard oder Bing gelten. KI-Systeme mit hohem Risiko müssen mit einer Dokumentation und einer Art Gebrauchsanweisung versehen werden.
Hochrisiko-KI-Systeme
KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder die Grundrechte natürlicher Personen darstellen, werden als „Hochrisiko-KI-Systeme“ bezeichnet. Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen und während ihres gesamten Lebenszyklus bewertet. Die Konformität mit dem KI-Gesetz soll durch eine CE-Kennzeichnung sichtbar gemacht werden.
Generative KI
Generative KI-Systeme, die auf Modellen wie ChatGPT basieren, sollten Transparenzanforderungen erfüllen und offenlegen, dass die Inhalte durch KI generiert wurden, was auch dazu beiträgt, sogenannte Deep Fakes von echten Bildern zu unterscheiden. Darüber hinaus sollten sie Schutzmaßnahmen gegen die Generierung illegaler Inhalte gewährleisten. Detaillierte Zusammenfassungen der urheberrechtlich geschützten Daten, die für ihr Training verwendet wurden, sollten ebenfalls öffentlich zugänglich gemacht werden.
GPT, Gemini, LaMDA oder LLaMA
Sogenannte Basismodelle wie das hinter ChatGPT stehende GPT, Gemini von Google, LaMDA oder LLaMA von Meta, die auf einer großen Datenbasis trainiert werden und an eine Vielzahl unterschiedlicher Aufgaben angepasst werden können, müssen klar reguliert werden. Unabhängige Experten sollen mögliche Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit prüfen. Außerdem müssen die Betreiber großer KI-Basismodelle eine Zusammenfassung der verwendeten Trainingsdaten veröffentlichen. Geschäftsgeheimnisse sind davon ausgenommen.
Begrenztes Risiko
KI-Systeme mit begrenztem Risiko sollten Mindestanforderungen an die Transparenz erfüllen, damit die Nutzer fundierte Entscheidungen treffen können. Die Nutzer sollten darauf hingewiesen werden, wenn sie mit KI interagieren. Dies gilt auch für KI-Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren (z. B. Deepfakes).
Mittelstand fördern
Das Parlament will vor allem mittelständischen Unternehmen die Entwicklung von KI-Lösungen ermöglichen. Deshalb sollen nationale Behörden sogenannte regulatorische Sandkästen als Testumgebungen einrichten, um innovative KI vor der Markteinführung zu trainieren und zu testen.
Ein KI-Risikomanagement aufbauen
Der verabschiedete Text hebt hervor, dass die Europäische Kommission gemeinsam mit den Mitgliedstaaten eine öffentliche EU-Datenbank einrichten und verwalten sollte, die Informationen über KI-Systeme mit hohem Risiko enthält. Die Informationen in der EU-Datenbank sollten öffentlich zugänglich sein.
Bei der Einrichtung eines Überwachungssystems für KI ist es von entscheidender Bedeutung, wer für die Risikobewertung zuständig ist. Um eine möglichst objektive Bewertung zu gewährleisten, sollte das Team interdisziplinär zusammengesetzt sein. Der Vorschlag sieht die Einrichtung eines „Europäischen Büros für künstliche Intelligenz“ als unabhängige Einrichtung der Union vor. Als Sitz wird Brüssel vorgeschlagen.
Dieses Abkommen betrifft uns unmittelbar und wird unseren Alltag und unseren Umgang mit künstlicher Intelligenz prägen. Warum? Weil die EU-Mitgliedstaaten die von den EU-Institutionen erlassenen Gesetze umsetzen müssen. EU-Recht ist also für uns verbindlich.
Zur englischen Übersetzung des Artikels: First AI law: finally some clarity