Wer soll entscheiden, was wir online sehen?

Gegenwärtig ranken (ordnen) und moderieren Online-Plattformen ihre Inhalte, ohne uns mitzuteilen, wie und warum sie dies tun. Es besteht ein dringender Bedarf an Transparenz.

Unser Leben ist eng mit Technologie verflochten. Besonders deutlich wird das, wenn wir betrachten, wie wir im Internet surfen, lesen und kommunizieren. In diesem Artikel diskutieren wir zwei Methoden, die Unternehmen anwenden, um uns Inhalte zu liefern: Ranking und Moderation.


Ranking von Inhalten

Plattformen verwenden automatisierte Maßnahmen, um die von uns hochgeladenen Inhalte zu ranken und zu moderieren. Wenn Du in Deinen Arbeitspausen nach Katzenvideos suchst, werden Dir Deine Suchergebnisse nicht jedes Katzenvideo, dass online verfügbar ist, präsentieren. Das Ergebnis hängt von Deinem Standort, Deinen Spracheinstellungen, Deinen letzten Suchanfragen und allen anderen Daten ab, die der Suchmaschine über Dich zur Verfügung stehen.

Online-Dienste ranken und ordnen Inhalte, gleichzeitig prognostizieren sie unsere persönlichen Präferenzen und unser Online-Verhalten. Auf diese Weise beeinflussen sie nicht nur unseren Zugang zu Informationen, sondern auch die Art und Weise, wie wir unsere Meinung bilden und am öffentlichen Diskurs teilnehmen. Indem sie unsere Präferenzen vorhersagen, formen sie diese auch und verändern langsam unser Online-Verhalten.

Sie entscheiden, was wir lesen und sehen. Es ist, als wäre man auf einer Reise in einem fremden Land, dessen Sprache nur der Reiseführer spricht. Und der Reiseführer entscheidet, was du siehst und mit wem du sprichst. In ähnlicher Weise entscheiden die Online-Dienste, was du siehst. Durch die Verstärkung und Quantifizierung der Popularität bestimmter Arten von sensationellen Inhalten, begleitet von den oft unvorhersehbaren Nebenwirkungen der algorithmischen Personalisierung, ist das Inhalts-Ranking zu der Ware geworden, von der die Plattformen leben. Darüber hinaus kann dies zu einer Manipulation der Meinungsfreiheit führen. Die Freiheit der Meinungsbildung ist aber ein absolutes Recht, was bedeutet, dass ein Eingriff in diese Freiheit gesetzlich verboten ist und von keiner demokratischen Gesellschaft akzeptiert werden kann.

Die automatisierte Kuratierung unserer Inhalte bestimmt, welche Art von Informationen wir erhalten und wie viel Zeit wir mit dem Surfen auf einzelnen Plattform verbringen. Die meisten von uns haben nicht genügend Informationen darüber, wie Empfehlungsalgorithmen die Hierarchisierung von Inhalten im Internet gestalten. Manche Nutzer sind sich nicht einmal der Tatsache bewusst, dass es ein Ranking gibt. Die sinnvolle Transparenz der Kurationsmechanismen ist eine Voraussetzung dafür, dass die Nutzer über die Werkzeuge, die unsere Informationslandschaft mitgestalten, verfügen können. Wir müssen wissen, wann wir einer automatisierten Entscheidungsfindung unterworfen werden, und wir haben das Recht, nicht nur eine Erklärung abzugeben, sondern auch Einspruch zu erheben. Um unsere Handlungsfähigkeit und das Bewusstsein über die Kuratierung von Inhalten wiederzuerlangen, brauchen wir sinnvolle Transparenzanforderungen, die von Online-Plattformen umgesetzt werden müssen. Robuste Transparenz und Erklärbarkeit automatisierter Maßnahmen sind Voraussetzungen für die Ausübung unserer Rechte auf Redefreiheit, damit wir effektiv gegen unangemessene inhaltliche Einschränkungen vorgehen können.

Inhaltliche Moderation

Online-Plattformen kuratieren und moderieren, um bei der Bereitstellung von Informationen zu helfen, aber sie tun dies auch, weil die Gesetzgeber der EU und der Mitgliedstaaten ihnen immer mehr Verantwortung auferlegen, die von Nutzern hochgeladenen Inhalte zu überwachen. Dabei drohen ihnen oft hohe Geldstrafen. Gemäß dem europäischen Rechtsrahmen sind die Plattformen verpflichtet, illegale Inhalte, wie z.B. Material über Kindesmissbrauch oder terroristische Inhalte, schnell zu entfernen, wenn sie von deren Existenz Kenntnis erlangt haben. Wir sind uns alle einig, dass der Zugang zu illegalen Inhalten verboten werden sollte. In einigen Fällen ist die Illegalität eines Inhalts jedoch sehr schwer zu beurteilen und erfordert eine angemessene rechtliche Bewertung. Beispielsweise kann ein Video entweder eine Verletzung des Urheberrechts darstellen oder es könnte frei wieder hochgeladen werden, wenn es etwa als Parodie zu werten ist.

Es kann durchaus eine Herausforderung sein, die Grenze zwischen illegalem und legalem Inhalt zu ziehen. Die Schwierigkeit besteht darin, dass Online-Plattformen aufgrund des Umfangs der Verwaltung von Online-Inhalten auf automatisierte Entscheidungshilfen als ultimative Lösung für diese sehr komplexe Aufgabe angewiesen sind. Um sich der Verantwortung zu entziehen, nutzen Plattformen die Automatisierung, um möglicherweise illegale Inhalte herauszufiltern. Aber wir brauchen Sicherheitsvorkehrungen und menschliches Eingreifen, um die Automatisierung zu kontrollieren. Wir können uns nicht ausschließlich auf diese Werkzeuge verlassen.

Welche Sicherheitsvorkehrungen brauchen wir?

Zweifellos ist die Moderation von Inhalten eine äußerst schwierige Aufgabe. Tag für Tag müssen Internet-Plattformen harte Entscheidungen treffen und festlegen, welche Inhalte online bleiben und wie wir sie finden können. Automatisierte Entscheidungsfindungsprozesse, Alghorithem, werden niemals die gesellschaftlichen Probleme von Hassreden oder Desinformation lösen, ganz zu schweigen von Themen wie Terrorismus. Sie werden es nicht, weil sie es nicht können. Während die Automatisierung bei Online-Inhalten, die unabhängig von ihrem Kontext offensichtlich illegal sind, wie z.B. Material über Kindesmissbrauch, gut funktionieren kann, versagt sie weiterhin in jedem Bereich, der nicht streng schwarz-weiß ist. 'Tools' (Werkzeuge) werden uns nicht vor sozialen Problemen retten, und kein Tool sollte das letzte Wort über den Schutz der freien Meinungsäußerung oder Deines Privatlebens haben.

Gegenwärtig ranken und moderieren Online-Plattformen Inhalte, ohne uns mitzuteilen, wie und warum sie dies tun. Es besteht ein dringender Bedarf an Transparenz, was die Praktiken und Richtlinien dieser Online-Plattformen betrifft. Sie müssen Informationen darüber offenlegen, inwiefern sie unsere Redefreiheit respektieren und welche Sorgfaltsmechanismen sie implementiert haben. Sie müssen transparent sein über ihren täglichen Betrieb, ihren Entscheidungsprozess und ihre Umsetzung sowie über ihre Folgenabschätzungen und andere politische Maßnahmen, die sich auf unsere grundlegenden Menschenrechte auswirken.

Neben der Transparenz brauchen wir auch angemessen ausgearbeitete Beschwerdemechanismen und menschliche Interventionen, wann immer automatisierte Entscheidungsprozesse ablaufen. Ohne Menschen, ohne zugängliche und transparente Beschwerdemechanismen oder ohne Menschen, die für die Politik verantwortlich sind, kann es keine wirksamen Lösungen geben. Wenn die Möglichkeit besteht, dass Inhalte fälschlicherweise entfernt wurden, dann muss dies von einer echten Person überprüft werden, die entscheiden kann, ob der Inhalt legal war oder nicht. Und wir sollten immer noch das Recht haben, die Angelegenheit vor ein Gericht zu bringen, das letztlich die einzige Instanz sein sollte, die rechtlich befugt ist, endgültige Entscheidungen in Angelegenheiten zu treffen, die unser Recht auf freie Meinungsäußerung beeinträchtigen könnten.

Mehr zu diesem Thema: Automatisierung und illegale Inhalte: Können wir uns auf von Maschinen getroffene Entscheidungen verlassen?