Automatisierung und illegale Inhalte: Können wir uns auf von Maschinen getroffene Entscheidungen verlassen?

Automatisierung scheint für den Umgang mit der großen Menge an Inhalten, die Online geteilt werden, unverzichtbar zu sein, aber die daraus resultierenden Fehler können weitreichende Folgen für unsere Rechte und das Wohlergehen der Gesellschaft haben.

Den meisten Menschen macht es Spaß, ihre Ideen und Meinungen zu albernen und ernsten Themen zu diskutieren, glückliche und traurige Momente zu teilen oder gemeinsam im Internet zu zocken. Und das ist auch gut so. Wir alle wollen die Freiheit haben, neue Dinge zu lernen, mit unseren Freunden in Kontakt zu bleiben und neue Menschen zu erreichen. Wir tauschen im Minutentakt Fotos, Videos und Ideen aus. Auf Snapchat teilen wir 527.760 Fotos, wir sehen 4.146.600 YouTube-Videos, wir teilen 456.000 Tweets und etwa 46.740 Fotos werden auf Instagram gepostet - jede einzelne Minute. Weißt du, wie viele Minuten ein Tag hat? 1440.

Die geteilten Informationen sind unterschiedlicher Natur. Oft handelt es sich um einfache und rechtlich völlig unbedenkliche Heimvideos. Aber es gibt Inhalte, die eindeutig gegen das Gesetz verstoßen, wie z.B. Kinderpornographie oder Aufstachelung zu Gewalt. Und zwischen legalen und illegalen Inhalten gibt es eine dritte Gruppe, die einige Menschen als schädlich empfinden, während andere kein Problem damit haben. Auch wenn sie nicht illegal ist, möchten einige Eltern vermeiden, dass ihre Kinder bereits mit 12 Jahren Zugang zu Pornographie erhalten. Was als schädlich gilt und für wen, das ist nicht leicht zu definieren und noch schwerer zu kategorisieren. Es hängt von Kultur, Alter, Umständen und noch vielen weiteren Faktoren ab.

Da ein großer Teil der Internetinhalte auf Online-Plattformen gehostet wird, sind diese auf automatisierte Tools angewiesen, um verschiedene Kategorien illegaler oder potenziell schädlicher Inhalte zu finden und zu beseitigen. Insbesondere dominante Akteure wie Facebook und Google haben Überwachungs- und Filtertechnologien zur Identifizierung und Entfernung von Inhalten eingesetzt. Sind wir uns darin einig, dass Material über Kindesmissbrauch entfernt werden muss? Sicherlich. Sind wir uns einig, dass die Verbreitung von ISIS-Rekrutierungsvideos verhindert werden soll? Auf jeden Fall.

Die EU hat zusammen mit einigen Mitgliedstaaten kontinuierlich auf Online-Plattformen eingewirkt, um sie dazu zu bewegen, illegale oder potenziell schädliche Inhalte wie Online-Hassrede oder terroristische Propaganda zügig zu entfernen. Wenn diese nicht schnell genug handeln, drohen oft Geldstrafen. Um den Anforderungen gerecht zu werden, sind Technologieunternehmen auf automatisierte Werkzeuge angewiesen, um Informationen herauszufiltern, die nicht online gestellt werden dürfen.

Auch wenn die Automatisierung für den Umgang mit der großen Menge an Inhalten, die Online geteilt werden, notwendig ist, können die dabei unweigerlich auftretenden Fehler weitreichende Folgen für unsere Rechte und das Wohlergehen der Gesellschaft haben.

1. Die kontextuelle Blindheit automatisierter Maßnahmen lässt auch legitime Äußerungen verstummen

Automatisierten Entscheidungshilfen fehlt das Verständnis für sprachliche oder kulturelle Fewinheiten. Technologien zur Inhaltserkennung sind nicht in der Lage, den Kontext von Ausdrücken genau zu beurteilen. Selbst in einfachen Fällen machen sie falsche Zuordnungen. Im Jahr 2017 strahlte der Popstar Ariana Grande ihr Benefizkonzert "One Love Manchester" über ihren YouTube-Kanal aus. Der Stream wurde prompt vom YouTube-Upload-Filter abgeschaltet, der die Show von Grande fälschlicherweise als Verletzung ihres eigenen Urheberrechts kennzeichnete. Noch schlimmer: Dieselben automatisierten Tools entfernten Tausende von YouTube-Videos, die als Beweise für Gräueltaten gegen die Zivilbevölkerung in Syrien dienen könnten und gefährdeten damit möglicherweise zukünftige Ermittlungen zu Kriegsverbrechen, die Kriegsverbrecher vor Gericht bringen könnten. Aufgrund ihrer kontextuellen Blindheit oder, mit anderen Worten, ihrer Unfähigkeit, die wahre Bedeutung und die Absichten der Benutzer zu verstehen, kennzeichnen und entfernen sie Inhalte, die völlig legitim sind. So riskieren Journalisten, Aktivisten, Schauspieler, Künstler sowie jeder von uns, der seine Meinungen und Videos oder Bilder online teilt, dass sie zensiert werden, weil sich Internetfirmen auf schlecht funktionierenden Werkzeuge verlassen.

2. Sie sind keine Wunderwaffe

Diese Technologien werden gerne als "künstliche Intelligenz" bezeichnet, ein Begriff, der Vorstellungen von übermenschlicher rechnergestützter Intelligenz hervorruft. Allerdings gibt es so etwas nicht, und es ist auch nicht in Sicht. Stattdessen bezieht sich dieser Begriff auf fortgeschrittene statistische Modelle, die darauf trainiert wurden, Muster zu erkennen, aber ohne tatsächliches "Verständnis" oder "Intelligenz". Technologien zur Erkennung von Inhalten können die Bedeutung oder Absicht derjenigen, die einen Beitrag in sozialen Medien teilen, oder die Auswirkungen, die dieser Beitrag auf andere hat, nicht verstehen. Sie scannen den Inhalt lediglich nach bestimmten Mustern wie visuellen, verbalen oder Audiodateien, die dem entsprechen, was sie als "Hassrede" oder "terroristische Inhalte" zu erkennen gelernt haben. Es gibt keine perfekten, eindeutigen Trainingsdaten, und daher ist ihre Fähigkeit, diese Muster zu erkennen, von Natur aus auf das beschränkt, was sie zu erkennen gelernt haben. Obwohl sie bei der Identifizierung eindeutiger, konsistenter Muster ein sehr hohes Maß an Genauigkeit erreichen können, wird ihre Fähigkeit, die sehr heikle Aufgabe der Beurteilung, ob etwas Hassrede ist, zu automatisieren, immer grundlegend eingeschränkt bleiben.

Es ist leicht zu verstehen, dass Regierungen ihren Bürgern zeigen wollen, dass sie etwas tun, um uns vor Terrorismus, Hassreden, Kindesmissbrauch oder Urheberrechtsverletzungen zu schützen. Und Unternehmen freuen sich, ihre Automatisierungstechnologien als eine Art Wunderwaffe an Politiker zu verkaufen, die verzweifelt nach einer einfachen Antwort suchen. Aber wir müssen uns vor Augen halten, dass keine Automatisierung in der Lage sein wird, die in unserer Gesellschaft tief verwurzelten Probleme zu lösen. Wir können sie als Mittel zur Verringerung der Belastung von Plattformen einsetzen, aber wir brauchen Schutzmaßnahmen, die sicherstellen, dass unsere Menschenrechtsfreiheiten nicht schlecht trainierten automatisierten Werkzeugen zum Opfer fallen.

Na und wer soll dann entscheiden, was wir online zu sehen bekommen? Bleib dran und erfahre in der nächste Folge dieser Artikelserie mehr darüber.

Wer sollte also entscheiden, was wir online sehen? Lies mehr dazu.

Autorinnne: Eliška Pírková von Access Now & Eva Simon von Liberties