In einem offenen Brief an die EU-Gesetzgeber machen über 60 Menschenrechtsorganisationen deutlich, dass die EU angesichts des zunehmenden Einsatzes von künstlicher Intelligenz im privaten und öffentlichen Sektor robuste Schutzmaßnahmen ergreifen muss, um das Fundament zu schützen, auf dem unsere Union steht. Der Missbrauch von KI-Systemen, einschließlich des undurchsichtigen und nicht rechenschaftspflichtigen Einsatzes von KI-Systemen durch öffentliche Behörden, stellt eine ernsthafte Bedrohung für Rechtsstaatlichkeit und Demokratie dar.
Der offene Brief wurde von der Civil Liberties Union for Europe (Liberties), dem European Civic Forum (ECF) und dem European Center for Not-for-Profit Law (ECNL) verfasst und koordiniert und von mehr als 60 Organisationen unterzeichnet, darunter Amnesty International, Access Now und EDRi.
Die Gesetzgeber müssen die Grundwerte der EU verteidigen
Die Europäische Union befindet sich in der Endphase der Verhandlungen über das Gesetz über künstliche Intelligenz ("KI-Gesetz"). Es ist Aufgabe der EU-Gesetzgeber, Gesetze zu verabschieden, die die Werte der Union wahren, einschließlich der Rechtsstaatlichkeit, die in Artikel 2 des Vertrags über die Europäische Union verankert ist. Rechtsstaatlichkeit bedeutet unter anderem: transparente, rechenschaftspflichtige, demokratische und pluralistische Gesetzgebung, Rechtssicherheit, Verbot der Willkür der Exekutive, wirksamer und gleichberechtigter Rechtsschutz, einschließlich des Zugangs zur Justiz durch unabhängige und unparteiische Gerichte, Gewaltenteilung, Nichtdiskriminierung und Gleichheit vor dem Gesetz.
Der Missbrauch von KI-Systemen könnte diese grundlegenden demokratischen Normen bedrohen. Regelungslücken, wie Ausnahmen für die nationale Sicherheit und die Strafverfolgung, könnten ausgenutzt werden, um demokratische Institutionen und Prozesse sowie die Rechtsstaatlichkeit zu schwächen. Das KI-Gesetz muss ein robustes, sicheres regulatorisches Umfeld schaffen, das auf dem Schutz der Grundrechte und der Rechtsstaatlichkeit beruht.
Ein wesentliches Element, um dies zu erreichen, ist die verpflichtende Aufnahme von Grundrechtsfolgenabschätzungen (FRIAs) in das KI-Gesetz, wie sie im Entwurf des Europäischen Parlaments vorgesehen ist. KI-FRIAs sollten jedoch eine zusätzliche Ebene haben und nicht nur potenzielle Schäden für die Grundrechte berücksichtigen, sondern auch die Auswirkungen, die ein KI-System auf die Rechtsstaatlichkeit haben könnte. Diese FRIAs sollten für alle risikoreichen KI-Technologien verpflichtend sein, um sicherzustellen, dass sie auf eine Weise eingesetzt werden, die den Grundsätzen der Gerechtigkeit, Rechenschaftspflicht und Fairness entspricht. Diese Bewertungen bieten einen strukturierten Rahmen, um potenzielle Grundrechtsverletzungen zu bewerten und zu vermeiden und sicherzustellen, dass KI-Technologien diese Rechte respektieren, fördern und schützen.
Schlupflöcher und pauschale Ausnahmen müssen beseitigt werden
Mehr als 60 zivilgesellschaftliche Organisationen haben diesen offenen Brief unterzeichnet, weil es ernsthafte Zweifel daran gibt, dass das KI-Gesetz die Rechtsstaatlichkeit - und damit unsere freien und demokratischen Gesellschaften - angemessen schützen wird. In den Gesetzesentwurf wurde ein Schlupfloch eingefügt, das Unternehmen und Behörden gleichermaßen die Möglichkeit gibt, einseitig zu entscheiden, dass ihr KI-System von den Anforderungen des Gesetzes ausgenommen werden soll, selbst wenn es in risikoreichen Bereichen wie Strafverfolgung, Justiz, Wahlen oder wichtigen öffentlichen Diensten eingesetzt werden soll.
Wenn sich ein Anbieter dafür entscheidet, sich selbst zu entbinden, gelten auch alle daraus folgenden Verpflichtungen für die Betreiber solcher Systeme nicht mehr. Infolgedessen würden Behörden, die solche Hochrisikosysteme einsetzen, willkürlich allen Verpflichtungen des KI-Gesetzes zum Schutz der vom missbräuchlichen KI-Einsatz betroffenen Menschen entgehen.
Darüber hinaus gibt es keine Zusicherung des Gesetzgebers, dass das KI-Gesetz keine pauschale Ausnahme für KI gewährt, die für Zwecke der nationalen Sicherheit eingesetzt wird. Auch wenn die nationale Sicherheit in einigen Fällen als legitimer Grund für die Einschränkung von Grundrechten gelten könnte, sollten Ausnahmen von den Anforderungen des KI-Gesetzes im Einklang mit der EU-Grundrechtecharta und dem geltenden EU-Recht von Fall zu Fall geprüft werden. Wir haben bereits den heimlichen Einsatz von invasiver Überwachungssoftware - nämlich Pegasus - durch einige EU-Mitgliedstaaten erlebt, um Journalisten, die Zivilgesellschaft und Oppositionspolitiker auszuspionieren.
Die mehr als 60 Grundrechtsorganisationen, die diesen offenen Brief unterzeichnet haben, fordern die EU-Gesetzgeber auf, drei entscheidende Änderungen vorzunehmen, um die Grundrechte und die Rechtsstaatlichkeit zu schützen:
- Verpflichten Sie FRIAs (Freedom of Information Act) für alle KI-Systeme mit hohem Risiko, in Übereinstimmung mit den vom Europäischen Parlament vorgeschlagenen Änderungen in Artikel 29a, und legen Sie Regeln fest, die sicherstellen, dass FRIAs auf offene und transparente Weise durchgeführt werden und ihre Ergebnisse einer öffentlichen Prüfung unterzogen werden.
- Lehnen Sie die vom Europäischen Rat vorgeschlagene Änderung von Artikel 2 des KI-Gesetzes ab, die darauf abzielt, KI-Systeme, die für Zwecke der nationalen Sicherheit entwickelt oder genutzt werden, vom Anwendungsbereich des Gesetzes auszuschließen.
- Nehmen Sie die ursprüngliche Fassung des Kommissionsvorschlags zu Artikel 6 Absatz 2 des KI-Gesetzes wieder auf, um die neu hinzugefügten Schlupflöcher zu beseitigen, die es KI-Entwicklern, egal ob aus dem öffentlichen oder dem privaten Sektor, ermöglichen würden, sich einseitig von den Schutzbestimmungen des KI-Gesetzes zu befreien.
Da KI so viele Bereiche der Gesellschaft umgestaltet, von der Bildung und dem Gesundheitswesen bis hin zur Regierungsführung und der Justizverwaltung, dürfen die EU-Gesetzgeber diese Gelegenheit nicht verpassen, um die Rechtsstaatlichkeit und die wichtigsten Rechte und Werte unserer Union umfassend zu schützen.
Den vollständigen Text unseres offenen Briefes findest du hier.