Technologie & Rechte

KI-Regulierung: Aktuelle Situation und Ausblick

Regierungen und Unternehmen nutzen künstliche Intelligenz, um Entscheidungen von erheblicher Tragweite zu treffen. Zu unserem Schutz und damit wir diese Technologie ohne Manipulation oder Vorurteile nutzen können, muss KI reguliert werden.

von Jascha Galaski

Die Branche der künstlichen Intelligenz (KI) wächst mit unglaublicher Geschwindigkeit. Nationen auf der ganzen Welt wetteifern darum, das "KI-Rennen" zu gewinnen. Der russische Präsident Wladimir Putin ist der Ansicht, dass die Nation, die sich durchsetzt, "die Welt beherrschen" wird. Unternehmen investieren Milliarden von Dollar, um sich den größten Marktanteil zu sichern. Simulationen zeigen, dass bis 2030 etwa 70 Prozent der Unternehmen irgendeine Art von KI-Technologie eingeführt haben werden. Der Grund dafür ist einfach. Ob es darum geht, den Klimawandel zu modellieren, Stellenbewerber auszuwählen oder vorherzusagen, ob jemand ein Verbrechen begehen wird - KI kann den Menschen ersetzen und mehr Entscheidungen in kürzerer Zeit und für weniger Geld treffen.


Allerdings bedrohen die KI-Systeme unsere Grundrechte. So können beispielsweise Algorithmen, die Inhalte auf Social-Media-Plattformen moderieren, die Meinungsfreiheit auf unfaire Weise einschränken und so die öffentliche Debatte beeinflussen. Biometrische Technologien zur Massenüberwachung verletzen unser Recht auf Privatsphäre und halten uns von der demokratischen Teilhabe ab. Algorithmen stützen sich auf riesige Mengen personenbezogener Daten, deren Erhebung, Verarbeitung und Speicherung häufig gegen unsere Datenschutzrechte verstößt. Algorithmusbedingte Verzerrung (algorithmic bias) kann bestehende Strukturen der Ungleichheit in unserer Gesellschaft fortschreiben und dazu beitragen, dass Minderheiten diskriminiert und entfremdet werden. Ein Beispiel dafür sind Einstellungsalgorithmen, die wahrscheinlich Männer gegenüber Frauen und Weiße gegenüber Schwarzen bevorzugen, weil aus den Daten, mit denen sie gefüttert werden, hervorgeht, dass "erfolgreiche Kandidaten" oft weiße Männer sind.

Diese Herausforderungen werden durch die Tatsache verschärft, dass KI so ungemein komplex ist. Wir verstehen immer noch nicht wirklich, welchen Risiken unsere Gesellschaften durch die Verbreiung von KI ausgesetzt sein wird. Die Forscherin Jenna Burrell von der University of California unterscheidet zwischen drei Arten der Undurchsichtigkeit bei KI-Systemen (three types of AI system opacity). Diejenigen, die absichtlich undurchsichtig gehalten werden, weil Unternehmen oder Staaten Geheimnisse bewahren wollen. Diejenigen, die aus technischem Analphabetismus resultieren, weil sie zu kompliziert sind, um von der Allgemeinheit verstanden zu werden. Und solche, die sich aus den komplexen Eigenschaften von Algorithmen des maschinellen Lernens ergeben. Mit anderen Worten, solche, die selbst die Programmierer*innen nicht wirklich begreifen.

Um diesen Gefahren vorzubeugen und, um uns vor ihnen zu schützen, muss die KI reguliert werden. Die Gesetzgeber*innen auf der ganzen Welt haben es bis heute versäumt, Gesetze zu entwerfen, die den Einsatz von KI speziell regeln. Deshalb können profitorientierte Unternehmen Systeme entwickeln, die dem Individuum Schaden zufügen können. Einige dieser Systeme existieren bereits und werden eingesetzt. Aufgrund mangelnder Transparenz der Behörden wissen wir oft nur nichts davon. Polizeikräfte in der gesamten EU setzen Gesichtserkennungstechnologien und vorausschauende Polizeisysteme (predictive policing) ein. Wie wir in einem anderen Artikel erläutern, sind diese Systeme zwangsläufig voreingenommen und führen somit auch immer zu Diskriminierung und Ungleichheit.

In diesem Artikel werden wir erörtern, warum wir eine KI-Regulierung brauchen, welche Art von KI-Regulierung bereits existiert, was eine KI-Regulierung enthalten muss und wovon die Zukunft der KI-Regulierung abhängt.

Warum muss KI überhaupt reguliert werden?

Wir müssen KI aus zwei Gründen regulieren. Erstens, weil Regierungen und Unternehmen KI nutzen, um Entscheidungen zu treffen, die erhebliche Auswirkungen auf unser Leben haben können. So können beispielsweise Algorithmen, die Schulleistungen berechnen, verheerende Auswirkungen haben. In Großbritannien hat das Bildungsministerium einen Algorithmus eingesetzt, um die Abschlussnote von Schülern im ganzen Land zu ermitteln. Das Ergebnis: Fast 40 Prozent der Schüler erhielten schlechtere Noten als die, die zuvor von ihren Lehrern vergeben wurden. Darüber hinaus war der Algorithmus nicht nur ungenau, sondern bevorzugte auch Schüler an Privatschulen gegenüber denen an öffentlichen Schulen. Auch im privaten Sektor ist die KI an ihre Grenzen gestoßen. In einem Fall bot eine vom Tech-Riesen Apple eingeführte Kreditkarte für Frauen niedrigere Kreditlimits als für Männer. Auch KI-Systeme, die die Wahrscheinlichkeit von Rückfälligkeit berechnen und die Länge von Gefängnisstrafen für Angeklagte festlegen, haben einen enormen Einfluss auf das Leben eines Menschen. Ohne angemessene Regeln ist es wahrscheinlicher, dass die Systeme ungenau und voreingenommen sind, da die Unternehmen weniger Anreize haben, in Sicherheitsmaßnahmen zu investieren und die Qualität und Unvoreingenommenheit ihrer Daten zu gewährleisten.

Zweitens: Immer wenn jemand eine Entscheidung fällt, die uns betrifft, muss sie oder er uns gegenüber rechenschaftspflichtig sein. In den Menschenrechtsgesetzen sind Mindeststandards für dafür festgelegt, was wir erwarten dürfen. Diese Mindeststanddards geben uns allen das Recht auf Rechtsmittel, wenn diese Standards nicht eingehalten werden und dadurch ein Schaden entsteht. Regierungen haben dafür Sorge zu tragen, dass diese Standards eingehalten werden und dass alle, die gegen diese Standards verstoßen, zur Rechenschaft gezogen werden. In der Regel geschieht das mit Hilfe des Verwaltungs-, Zivil- oder Strafrechts. Das bedeutet, dass alle, auch Unternehmen und Regierungen, bei ihren Entscheidungen bestimmte Regeln befolgen müssen. Wenn sich jemand nicht an die vereinbarten Standards hält und dadurch jemandem Schaden zugefügt wird, muss der Verursacher dafür geradestehen. Es gibt jedoch bereits Anzeichen dafür, dass sich die Unternehmen, die hinter KI stehen, der Verantwortung für die von ihnen verursachten Probleme entziehen könnten. Als beispielsweise 2018 ein selbstfahrendes Auto von Uber eine Fußgängerin tötete, war zunächst nicht klar, wer dafür verantwortlich sein würde. War es der Autohersteller, Uber oder die Person im Auto? Obwohl die Ermittler feststellten, dass das Auto Sicherheitsmängel aufwies (es nahm keine Rücksicht auf Fußgänger, die bei Rot über die Straße gingen), wurde Uber als "nicht strafrechtlich verantwortlich" eingestuft. Stattdessen wurde die Person am Steuer wegen fahrlässiger Tötung angeklagt, da sie gerade eine Folge einer Fernsehsendung anschaute.

Was wissen wir bis jetzt über regionale und nationale Richtlinien?

Wie bereits erwähnt, gibt es derzeit keine Rechtsvorschriften, die speziell den Einsatz von KI regeln. Vielmehr werden KI-Systeme durch andere bestehende Vorschriften geregelt. Dazu gehören Gesetze zum Datenschutz, zum Verbraucherschutz und zum freien Wettbewerb. Es wurden auch Gesetze zur Regulierung bestimmter KI-Systeme verabschiedet. In New York müssen Unternehmen möglicherweise bald offenlegen, wenn sie Algorithmen zur Auswahl ihrer Mitarbeiter einsetzen. Mehrere Städte in den USA haben bereits den Einsatz von Gesichtserkennungstechnologien verboten. In der EU wird das geplante Gesetz über digitale Dienste erhebliche Auswirkungen auf die Art und Weise haben, wie Online-Plattformen Algorithmen einsetzen, die Online-Inhalte einstufen und moderieren, unsere persönlichen Vorlieben vorhersagen und so letztlich darüber entscheiden, was wir lesen und sehen. Wir sprechen hier von Algorithmen zur Inhaltsmoderation, den sogenannten content-moderation algorithms.

Nationale und lokale Regierungen haben bereits vor einigen Jahren damit begonnen, Strategien zu verabschieden und an neuen Gesetzen zu arbeiten, aber es wurde noch kein Gesetz verabschiedet. China beispielsweise hat 2017 eine Strategie entwickelt, um im Jahr 2030 weltweit führend in der KI zu werden. In den USA hat das Weiße Haus zehn Grundsätze für die Regulierung von KI veröffentlicht. Dazu gehören die Förderung von "zuverlässigen, robusten und vertrauenswürdigen KI-Anwendungen", die Beteiligung der Öffentlichkeit und wissenschaftliche Integrität. Internationale Gremien, die Regierungen beraten, wie die OECD oder das Weltwirtschaftsforum, haben ethische Leitlinien entwickelt. Der Europarat hat einen Ausschuss eingerichtet, der bei der Entwicklung eines Rechtsrahmens für KI helfen soll.


Der bisher ehrgeizigste Vorschlag kommt allerdings von der EU. Am 21. April 2021 legte die EU-Kommission einen Vorschlag für ein neues KI-Gesetz vor. Der Entwurf sieht vor, den Einsatz von KI für bestimmte, als "inakzeptabel" eingestufte, Zwecke zu verbieten. Dazu gehören Gesichtserkennungstechnologien, KI-Systeme, die für Social Scoring eingesetzt werden und Menschen nach ihrer Vertrauenswürdigkeit einstufen, und Systeme, die Menschen manipulieren oder Schwachstellen bestimmter Gruppen ausnutzen - zum Beispiel ein Spielzeug, das Kinder mit Hilfe von Sprachassistenz dazu bringt, etwas Gefährliches zu tun. Der Vorschlag verfolgt einen risikobasierten Ansatz: Je größer das Risiko ist, das ein bestimmter Einsatz von KI für unsere Freiheiten mit sich bringt, desto mehr muss die Behörde oder das Unternehmen die Funktionsweise des Algorithmus transparent machen und den Aufsichtsbehörden über dessen Einsatz berichten. Auch wenn sich das zunächst so anhört, als würde es die Europäische Kommission mit der Regulierung von schädlichen KI-Systemen ernst meinen, stellt der Vorschlag in Wirklichkeit die Interessen der Industrie über die Grundrechte. Die Kommission behauptet gerne, dass sie die Gesichtserkennungstechnologie verboten hat, aber der Vorschlag bietet Schlupflöcher, die es Unternehmen und Behörden ermöglichen, sie zu nutzen. Außerdem haben die Transparenzverpflichtungen für Hochrisikosysteme einen entscheidenden Fehler: Die Aufgabe, zu prüfen, ob KI riskant ist, wird den Unternehmen überlassen, die die KI-Systeme selbst entwickeln. Da gewinnorientierte Unternehmen ein Interesse daran haben, ihre Produkte auf dem Markt zu sehen, werden sie die Risiken wahrscheinlich herunterspielen.

Was muss ein KI-Gesetz leisten?

Eine wirksame, die Rechte schützende KI-Regulierung muss mindestens die folgenden Sicherheitsvorkehrungen enthalten. Erstens muss sie Technologien verbieten, die unsere Grundrechte verletzen, wie z. B. biometrische Massenüberwachung oder prädiktive Polizeisysteme. So ein Verbot darf auch keine Ausnahmen enthalten, die es Unternehmen oder Behörden erlauben, sie "unter bestimmten Bedingungen" doch einzusetzen.

Zweitens muss es klare Regeln geben, die genau festlegen, was die Unternehmen über ihre Produkte öffentlich machen müssen. Die Unternehmen müssen eine detaillierte Beschreibung des KI-Systems selbst liefern. Dazu gehören Informationen über die verwendeten Daten, den Entwicklungsprozess, den Zweck des Systems und wo und von wem es eingesetzt wird. Es ist auch wichtig, dass die Personen, die mit KI in Berührung kommen, darüber informiert werden, zum Beispiel bei Einstellungsalgorithmen. Systeme, die einen erheblichen Einfluss auf das Leben der Menschen haben können, sollten einer besonderen Prüfung unterzogen und in eine öffentlich zugängliche Datenbank aufgenommen werden. Das würde es Forschern und Journalisten erleichtern, sich zu vergewissern, dass Unternehmen und Regierungen unsere Freiheiten richtig schützen.

Hilf uns für deine Rechte zu kämpfen spenden
Drittens müssen Einzelpersonen und Organisationen, die sich für den Schutz der Verbraucher*innen einsetzen, in der Lage sein, Regierungen und Unternehmen zur Verantwortung zu ziehen, wenn es Probleme gibt. Bestehende Regeln zur Rechenschaftspflicht müssen angepasst werden, um anzuerkennen, dass Entscheidungen von einem Algorithmus und nicht vom Nutzer getroffen werden. Das könnte bedeuten, dass das Unternehmen, das einen bestimmten Algorithmus entwickelt hat, verpflichtet wird, die Daten, mit denen dieser Algorithmus trainiert wird, und die Entscheidungen, die der Algorithmus trifft, zu überprüfen, damit Probleme korrigiert werden können.

Viertens müssen neue Vorschriften dafür sorgen, dass es eine Aufsichtsbehörde gibt, die kontrolliert, ob Unternehmen und Behörden die Regeln richtig einhalten. Diese Aufsichtsbehörde sollte unabhängig sein und über die nötigen Ressourcen und Befugnisse verfügen, um ihre Aufgabe zu erfüllen.

Schließlich sollte eine KI-Verordnung auch Maßnahmen zum Schutz der Schwächsten enthalten. Sie sollte ein System einrichten, das es Menschen, die von KI-Systemen geschädigt wurden, ermöglicht, zu klagen und Schadenersatz zu erhalten. Und Arbeitnehmer*innen sollten das Recht haben, gegen invasive KI-Systeme ihres Arbeitgebers vorzugehen, ohne Vergeltungsmaßnahmen befürchten zu müssen.

Wovon hängt die Zukunft der KI-Regulierung ab?

Wenn die EU Regeln für KI aufstellt, wird sie aufgrund der vielen Unternehmen, die in der EU arbeiten und dort ihren Sitz haben, wahrscheinlich den Standard für den Rest der Welt setzen. Die EU trägt eine große Verantwortung, denn diese Regeln werden sich darauf auswirken, wie KI-Systeme in weniger demokratischen Teilen der Welt eingesetzt werden. Algorithmen, die behaupten, die sexuelle Orientierung einer Person vorherzusagen, können zum Beispiel dazu führen, dass Menschen in Ländern sterben, in denen Homosexualität immer noch mit dem Tode bestraft wird.

Es liegt nun an den politischen Entscheidungsträger*innen und an der EU, Regeln zu entwickeln, die unsere Lebensqualität verbessern und die Gleichberechtigung fördern. Die Verantwortlichen in der EU sind vielleicht versucht, auf KI zu setzen, weil sie glauben, dass sie Einsparungen bringen oder die Wirtschaft ankurbeln wird. Aber Abkürzungen im öffentlichen Dienst oder der Einsatz von KI ohne sozialen Nutzen schaden unserer Lebensweise und den Freiheiten, die wir schätzen. Die Frage, die sich die EU stellen muss, ist, wie unsere Gesellschaften KI nutzen können, um unsere Rechte und Freiheiten mit Leben zu erfüllen.