Upload-Filter sind zurück, und wir sind immer noch strikt dagegen

Upload-Filter. Klingt das bekannt? Erinnerst Du Dich an die Debatte über die Urheberrechtsrichtlinie, bei der es unter Anderem um obligatorische Upload-Filter zum Schutz der kreativen Werke der RechteinhaberInnen ging? Jetzt sind sie wieder da.

Liberties und eine ganze Reihe anderer Organisationen für Grundrechte und digitale Rechte haben argumentiert, dass das Filtern eine Atmosphäre schafft, in der Menschen keinen Zugang zu bestimmten Informationen haben. Filtern bedeutet eine Art automatische, präventive Zensur im Namen des Schutzes bestimmter Werte, sei es das Urheberrecht, der Schutz von Kindern vor schädlichen Inhalten oder die Entfernung von Hassreden zum Schutz gefährdeter Gruppen in unserer Gesellschaft.

Es gibt jedoch mehrere Probleme mit dem obligatorischen Filtern. Hier diskutieren wir die beiden wichtigsten davon.

Du musst Cookies von Drittanbietern akzeptieren, um auf diesen Inhalt zugreifen zu können.

Unzulänglichkeit der Upload-Filter

Upload-Filter sind automatische Entscheidungshilfen, die erstellt wurden, um bestimmte Inhalte zu erkennen und gegebenenfalls zu blockieren. Dieses Blockieren funktioniert mittels eines Algorithmus, dem jedoch das Verständnis für sprachliche oder kulturelle Unterschiede fehlt. Algorithmen sind nicht in der Lage, den Kontext von Ausdrücken genau zu beurteilen. Sie sind unzureichend trainiert und es gibt mehrere Fälle, in denen Videos zu Unrecht blockiert wurden.

Diese automatischen Entscheidungshilfen sind darauf trainiert, Muster und Modelle zu erkennen. Sie scannen Bild- und Audiodateien und blockieren Inhalte, wenn eine positive Übereinstimmung mit bestimmten anderen Kriterien, (z.B. Urheberrechte, sexueller Kindesmissbrauch oder terroristisches Material) vorliegt. Obwohl sie eine sehr hohe Genauigkeit bei der Identifizierung von Inhalten erreichen können, verstehen sie nicht den Kontext und die Auswirkungen, die Inhalte auf ihr Publikum haben können.

Wir alle wollen, dass unsere Regierungen uns vor illegalen Aktivitäten wie Hassrede oder terroristischen Online-Inhalten schützen; eine automatisierte Software zur Erkennung von Inhalten wird jedoch keines der Probleme in unserer Gesellschaft lösen. Automatisierung wird und sollte eingesetzt werden. Aber nicht auf einer verpflichtenden Basis und nicht ohne menschliche Überprüfung.

Privatisierte Strafverfolgung

Das andere Problem mit obligatorischen Upload-Filtern ist, dass sie Privatunternehmen dazu verpflichten würden, schwierige Grundrechtsprobleme zu lösen, nämlich zwischen geschützter freier Meinungsäußerung und Urheberrechtsverletzungen, schädlichen Inhalten, Fehlinformationen oder terroristischen Inhalten zu unterscheiden.

Das Einzige was mit dieser Lösung erreicht wird, ist die Verlagerung der Verantwortung auf Unternehmen, wie z.B. Suchmaschinen, Video-Sharing-Plattformen und soziale Netzwerke, um die Probleme unserer Gesellschaften zu lösen. Aber diese Unternehmen haben weder die Mittel noch das Wissen, um solche gesellschaftlichen Probleme zu lösen.

Und es geht nicht nur um ihre mangelnde Kompetenz in diesem Bereich - es geht auch gegen ihr Geschäftsmodell. Für diese Unternehmen ist der Schutz der Grundrechte nicht von vorrangiger Bedeutung. Wenn es um die Wahl zwischen Geschäftsinteressen und dem Schutz der Redefreiheit geht, haben Unternehmen einen starken Anreiz, sich für Ersteres zu entscheiden und Inhalte zu blockieren, wenn etwa die Gefahr besteht, dass das Unternehmen rechtlich haftbar gemacht werden könnte.

Wenn Unternehmen die Kontrolle über die Inhalte übernehmen, wird das die Meinungs- und Informationsfreiheit ernsthaft gefährden, da es für den Einzelnen schwieriger wird, sein Recht auf freie Meinungsäußerung auszuüben und durchzusetzen.

Wir wollen unsere Grundrechte nicht auf dem Altar einer vorgetäuschten Sicherheit opfern. Obligatorische Upload-Filter sind vermeidbar und um die Unterdrückung der Informationsfreiheit und des Rechts auf freie Meinungsäußerung zu umgehen, müssen wir bessere Lösungen finden.