Künstliche Intelligenz – eine juristische Persönlichkeit?

von | 1 Mrz. 2024

Myth: AI has agency | AI Myths

Wer über künstliche Intelligenz (KI) sprechen oder schreiben will, steht vor einer gewaltigen Aufgabe: zu definieren, was sie ist und was sie nicht ist. Die Unbestimmtheit dieses Begriffs ist so absurd geworden, dass der Begriff KI für alles Mögliche verwendet wird, von einem Roboter, der Pizzen zusammenstellt, bis hin zu Science-Fiction-Fantasien über superintelligente KI-Herrscher, die die Welt bedrohen.

Die Definition von KI im Weißbuch der Europäischen Union zur künstlichen Intelligenz lautet: „KI ist eine Sammlung von Technologien, die Daten, Algorithmen und Rechenleistung kombinieren.“ Wie die Mitglieder der niederländischen Allianz für Künstliche Intelligenz (ALLAI) betonen, gilt diese „Definition für jedes Stück Software, das jemals geschrieben wurde, nicht nur für KI“.

Was ist nun Künstliche Intelligenz?

Künstliche Intelligenz ist zunächst einmal ein Algorithmus, ein Computerprogramm. Es wurde von Menschen entwickelt. Es interpretiert gesammelte Daten und zieht Schlüsse aus dem daraus gewonnenen Wissen. Abhängig von den vordefinierten Parametern entscheidet das Programm über die beste(n) auszuführende(n) Aktion(en). KI-Systeme können auch analysieren, wie die Umgebung durch vorangegangene Aktionen beeinflusst wurde, und so lernen, ihr Verhalten anzupassen.

KI ist also menschengemacht und nicht autonom, auch wenn sie lernfähig ist.

Juristische Persönlichkeit für KI

Die Idee, künstlicher Intelligenz eine eigene Rechtspersönlichkeit zuzuerkennen, kann dazu führen, dass unsere Rechtssysteme radikal geändert werden, um Ideen Rechnung zu tragen, die weit hergeholt erscheinen. Zum Beispiel wird immer wieder diskutiert, ob eine KI geistiges Eigentum an etwas haben kann, das sie erfindet.

Nach dem, was bisher zu diesem Thema geschrieben wurde, scheint es einfacher zu sein zu sagen, dass einige Wissenschaftler ein KI-System benutzt haben, um etwas zu erfinden. In diesem Fall erscheint die Vorstellung, dass eine KI das geistige Eigentum besitzt, ziemlich bizarr.

Wenn wir dieses Problem weiter vertiefen, können wir uns fragen, wer davon profitieren könnte, dass eine KI (von einem privaten Unternehmen entwickelt) das Urheberrecht besitzt. Wenn eine KI eine eigene Rechtspersönlichkeit hätte, könnten sich Unternehmen wahrscheinlich der Verantwortung entziehen, indem sie das System für seine Handlungen verantwortlich machen, anstatt für das Verhalten der von ihnen entwickelten Systeme haften zu müssen.

Im Patentrecht besteht derzeit ein internationaler Konsens darüber, dass KI nicht als Erfinder eines Patents angesehen werden kann. Rechtsanwälte sind sich in Bezug auf das Urheberrecht einig: Eine künstliche Intelligenz kann kein Urheberrecht an einer Sache haben.

Ein Roboter mit Bürgerrechten

Im Jahr 2017 verlieh die saudi-arabische Regierung dem Roboter Sophia die Staatsbürgerschaft. Die Entscheidung mag ein PR-Gag gewesen sein, aber viele Menschen haben argumentiert, dass die Anerkennung von Rechtsansprüchen für Roboter die Menschenrechte untergräbt.

Doch Saudi-Arabien ist nicht allein: Japan hat einen ähnlichen Schritt unternommen und Shibuya Mirai, einem Chatbot in einer Messaging-App, die Aufenthaltserlaubnis in Tokio erteilt.

Sind Roboter elektronische Personen?

Auch die Europäische Union hat mit dieser Idee geliebäugelt, und zwar mit dem Vorschlag des Europäischen Parlaments, für Roboter einen besonderen Rechtsstatus als „elektronische Personen“ einzuführen. Der Antrag des Europäischen Parlaments forderte die Europäische Kommission auf, die Möglichkeit zu prüfen, das Konzept der elektronischen Persönlichkeit auf „Fälle anzuwenden, in denen Roboter intelligente autonome Entscheidungen treffen“.

Ein offener Brief, der von mehr als 150 europäischen KI-Experten unterzeichnet wurde, sprach sich entschieden gegen den Vorschlag aus und verwies vor allem auf die Überschätzung der tatsächlichen Fähigkeiten von KI und die Sorge um Haftungsfragen.

Die Europäische Kommission hat den Vorschlag des Europäischen Parlaments in ihrem Entwurf für eine zukünftige Strategie zum Umgang mit künstlicher Intelligenz nicht übernommen und damit die Idee der elektronischen Persönlichkeit abgelehnt.

KI hat nur „eingeschränkte Intelligenz“

Ein Problem ist, dass der Begriff „künstliche Intelligenz“ zu einer Überschätzung der Fähigkeiten verleitet. Anstatt das DABUS-System als künstliche Intelligenz zu bezeichnen, könnte man es eher als ein Computerprogramm bezeichnen, das fortgeschrittene statistische Methoden verwendet, und plötzlich erscheint es viel weniger plausibel, dafür ein Patent zu erteilen.

Ein weiteres Problem besteht darin, dass ein Roboter wie Sophia, der ein wenig wie ein Mensch aussieht und auf menschliche Fragen sofort antworten kann, die Menschen glauben machen könnte, dass Roboter mit menschlicher Intelligenz nicht mehr weit entfernt sind.

In Wirklichkeit verfügen wir bei KI-Systemen derzeit nur über die so genannte „eingeschränkte Intelligenz“, bei der das System bei einer sehr eng definierten Aufgabe gute Leistungen erbringen kann, aber in der Regel bei der kleinsten Veränderung der Aufgabe wieder auf Null zurückfällt.

Um so etwas wie eine allgemeine künstliche Intelligenz zu erreichen – bei der eine Maschine in der Lage wäre, eine Reihe komplexer Aufgaben intelligent zu lösen – braucht man nicht einfach mehr Daten und mehr Rechenleistung, sondern es ist ein Problem, für das niemand einen Fahrplan hat.

Kann KI „schöpferisch unabhängig“ sein?

Wenn Systeme komplexe Algorithmen wie neuronale Netze verwenden, die aus großen Datensätzen lernen, ist es für ihre Programmierer oft schwierig, die genauen Mechanismen zu verstehen, mit denen sie Ergebnisse erzielen. Dies bedeutet, dass ihre Funktionsweise bis zu einem gewissen Grad undurchsichtig ist und dass sie häufig Ergebnisse liefern, die für menschliche Programmierer überraschend sind.

In einigen Fällen sind diese überraschenden Ergebnisse auf schwerwiegende Fehler zurückzuführen, die lebensbedrohliche Folgen hätten haben können. In anderen Fällen führten sie zu spannenden und neuartigen Ergebnissen, auf die ein Mensch wahrscheinlich nicht gekommen wäre.

Im Falle der KI-Persönlichkeit wird diese Undurchschaubarkeit als eine Art „schöpferische Unabhängigkeit“ verstanden, d. h. die Entscheidungsprozesse der KI sind unabhängig von ihren Schöpfern und sollten daher nicht von diesen verantwortet werden.

Viele ethische Fragen

In dem Zusammenspiel zwischen Mensch und Maschine kommen schnell Fragen auf wie: Werden wir zunehmend von Maschinen kontrolliert oder sogar beherrscht? Wie viel besser sind Maschinen als wir? Können Maschinen bald den Menschen ersetzen? Viele dieser Fragen sind ethische Fragen, weswegen KI-Ethik ein wichtiger Blickwinkel auf das Thema KI ist. KI-Systeme sind – wie alle Technologien – mit Risiken, Chancen und Herausforderungen verbunden.

Letztlich werden ethische Richtlinien, so gut sie auch gemeint sein mögen, nicht ausreichen. Wir brauchen Regierungen und internationale Institutionen, die rote Linien ziehen, damit bestimmte Anwendungen von KI – von der biometrischen Überwachung bis zur vorausschauenden Polizeiarbeit – schon im Ansatz gestoppt werden und für andere angemessene Schutzmaßnahmen und Rechenschaftsmechanismen eingeführt werden.

Kann man KI kontrollieren?

Es gibt zwei weit verbreitete Mythen darüber, ob künstliche Intelligenz kontrollierbar ist:

Erstens: KI ist einfach zu komplex, um kontrolliert und reguliert zu werden.

Zweitens: Jedes Kontrollieren und Regulierung von KI würde die Innovation ersticken.

In dem Maße, in dem der Hype um KI zunimmt, wird auch immer häufiger über die Regulierung von KI diskutiert: Einerseits stellt sich die Frage, ob wir eine Technologie regulieren können, die sich so schnell entwickelt und deren Funktionsweise angeblich so undurchsichtig ist, dass wir sie kaum verstehen; andererseits stellt sich die Frage, ob wir KI regulieren sollten, wenn jede Regulierung das Risiko birgt, Innovation zu ersticken oder das Land, das reguliert, seines Wettbewerbsvorteils zu berauben. Beide Behauptungen beruhen auf einer Reihe von Missverständnissen.

Politiker haben keine Ahnung von KI

Ein Argument gegen die Regulierung von KI ist häufig, dass Politiker zu wenig Erfahrung mit komplexen KI-Technologien haben, um sie zu regulieren. Dieses Argument führt in der Regel zu der Schlussfolgerung, dass ahnungslose Regierungen die Dinge nur noch schlimmer machen würden, wenn sie versuchten, KI zu regulieren, und dass sie daher die Dinge den Unternehmen überlassen sollten, die über das Fachwissen in diesem Bereich verfügen.

Einige gehen sogar so weit zu argumentieren, dass eine Regulierung der KI durch den Menschen unmöglich sei und die KI sich letztlich selbst regulieren müsse, da sie frei von menschlichen Unzulänglichkeiten sei.

Man kann KI trotzdem regulieren

So innovativ und neuartig die heutige KI-Technologie auch sein mag, die staatliche Kontrolle neuer Technologien ist nichts Neues. Im Laufe der Geschichte haben Regierungen immer wieder neue Technologien reguliert, und die Ergebnisse waren oft erfolgreich. Einige Beispiele sind die Regulierung des Automobils, der Eisenbahntechnologie, des Telegrafen und des Telefons.

KI-Systeme sind wie diese anderen Technologien Werkzeuge, die von Menschen genutzt werden. Die Auswirkungen von KI-Systemen auf die Gesellschaft hängen weitgehend davon ab, wer sie einsetzt, zu welchem Zweck sie eingesetzt werden und für wen sie eingesetzt werden. Und all dies kann reguliert werden.

Regulierung von KI wird Innovation behindern – wirklich?

Wir hören immer wieder, dass wir KI nicht regulieren sollten. Es wird argumentiert, dass eine Regulierung die Innovation bremsen würde und dass Unternehmen die Möglichkeit haben sollten, neue Technologien frei zu entwickeln.

In den USA hat das Weiße Haus 2019 Leitlinien für die KI-Politik veröffentlicht, in denen es sich nachdrücklich gegen eine Überregulierung ausspricht.

Gesetze könne Vorteile bringen

Betrachtet man verschiedene Branchen, so hat sich die Vorstellung, dass Regulierung die Innovation vollständig bremst, nicht bewahrheitet, und es gibt keinen Grund, warum dies im Zusammenhang mit KI der Fall sein sollte. In einer Vielzahl von Branchen wurde die Regulierung erfolgreich eingeführt, ohne dass sie die gesamte Innovation zum Erliegen gebracht hätte.

Schließlich ist KI nur ein Computerprogramm, eine Technologie, die von Menschen erfunden wurde. Daher müssen auch Menschen regeln, wie diese Technologie eingesetzt wird.

Zur englischen Übersetzung des Artikels: Artificial intelligence – a legal entity?

WordPress Cookie Plugin von Real Cookie Banner