Instagram, TikTok, X: Wer bestimmt, was gesagt werden darf?
Milliarden Menschen nutzen weltweit die sozialen Netzwerke wie Instagram, Facebook, TikTok und X (früher Twitter). Doch wer entscheidet, was dort gesagt und geschrieben werden darf - und was nicht? Ein Überblick.
Instagram und Facebook vom Meta-Konzern von Marc Zuckerberg gehören zu den größten Social-Media-Plattformen. Was gesagt oder nicht gesagt oder geschrieben werden darf, entscheidet Meta selbst. Die Regeln stehen in den Facebook-Gemeinschaftsstandards. Bei Instagram heißen sie Gemeinschaftsrichtlinien. Die werden auch immer wieder aktualisiert. Da steht zum Beispiel, was Facebook unter Hassrede versteht und warum sie natürlich verboten ist:
Hassrede schafft ein Umfeld der Einschüchterung und Ausgrenzung und kann in gewissen Fällen Gewalt in der Offline-Welt fördern. Auszug Gemeinschaftsstandards Facebook
Dann folgen diverse Beispiele, was alles gegen die Standards verstößt wie zum Beispiel gewalttätige und menschenverachtende Äußerungen oder die Verspottung des Begriffs Hassverbrechen.
Es gibt Ausnahmen - Satire ist schwierig zu erkennen
Meta beschreibt auch Ausnahmen. Posts bleiben zum Beispiel dann online, "wenn wir feststellen , dass der Inhalt satirisch ist". Da wird es kompliziert, weil eben nicht immer ganz so klar ist, was wie gemeint ist. 15.000 Mitarbeitende prüfen deshalb laut Meta weltweit kritische Posts. User laden aber täglich Milliarden Inhalte bei Facebook und Instagram hoch. Deshalb entscheidet vor allem künstliche Intelligenz, ob Posts gelöscht werden oder nicht. Das reicht aber nicht aus.
Kritik an Metas Content-Moderation
An Metas Content-Moderation gab es immer wieder Kritik. So könne Hassrede von den Algorithmen verstärkt werden. In Myanmar habe es der Konzern beispielsweise versäumt, Beiträge zu entfernen , die sich gegen die Minderheit der Rohingya richteten. Ob sich Meta an seine eigenen Regeln hält, soll das sogenannte Oversight-Board kontrollieren, eine unabhängige Gruppe aus Fachleuten, an die sich auch User wenden können, die sich von Meta ungerecht behandelt fühlen: Wurde ein Inhalt regelkonform gelöscht oder hätte er online bleiben müssen? Solche Fälle berät das Board.
Metas Oversight-Board: Langsamkeit wird bemängelt
"Unsere Entscheidungen beruhen auf der Achtung der Meinungsfreiheit und internationalen Menschenrechtsstandards und sind verbindlich", heißt es in einem Clip des Boards. Meta muss sich also an dessen Entscheidungen halten. Fachleute halten das Oversight-Board zwar für eine gute Idee, Kritik gibt es aber auch: Es sei zu langsam und bearbeite zu wenige Fälle. Jeden Tag melden sich Tausende User beim Bord. Laut deren Webseite wurden in diesem Jahr aber bisher weniger als 30 Fälle entschieden.
Videos und Kommentare bei TikTok eingeschränkt
Auch TikTok setzt auf eine Mischung aus Mensch und Maschine, um die eigenen Community-Richtlinien durchzusetzen. Grundlage für die Regeln sei unter anderem die internationale Menschenrechtskonvention. Hochgeladene Videos werden gescannt, und wenn das System Regelverstöße erkennt, vor der Veröffentlichung automatisch gelöscht. In unklaren Fällen werden die Clips an menschliche Content-Moderatoren zur Prüfung weitergeleitet. Was nicht in den Community-Regeln steht, ist dass TikTok schon die Sichtbarkeit von Videos und Kommentaren eingeschränkt hat, wenn gewisse Schlagworte verwendet worden sind. Das hat unter anderem die Tagesschau recherchiert.
Um den automatischen Filtern zu entgehen, ändern Video-Creator potenziell kritische Schlagworte ab: Sex schreiben deshalb viele nicht mit x, sondern mit Doppel-g, lesbisch mit einem Dollarzeichen statt eines s.
Bei X sollen es die User richten
Um Geld zu sparen hat X-Inhaber Elon Musk viele Mitarbeitende entlassen und jetzt kaum noch professionelle Content-Moderatoren, die sich um schädliche Inhalte kümmern. Das ist einer der Gründe, warum Hassrede oder Verschwörungserzählungen angestiegen sind und sich viele Werbekunden verabschiedet haben. X hat mittlerweile die User zu Fakten-Checkern gemacht. Auf der Plattform gibt es eine Funktion namens kollektive Anmerkungen. Unter irreführenden Posts können Nutzer direkt darunter auf mögliche Fehler hinweisen und auch Links zu seriösen Quellen posten.
EU-Kommission: "User können keine Experten ersetzen"
Věra Jourová ist die Vizepräsidentin der EU-Kommission und auch dafür zuständig, die EU-Wahlen vor äußeren Einflüssen zu beschützen. Sie ist von den kollektiven Anmerkungen noch nicht so ganz überzeugt. "Das kann aus unserer Sicht keine Experten ersetzen. Fakten müssen von denen gecheckt werden, die das Thema verstehen." Allerdings hat die Universität Kalifornien in einer Studie eine Reihe der User-Anmerkungen untersucht. Das Ergebnis: Fast alle waren korrekt.
Digital Services Act: Kontrolle durch die EU
Besonders große Plattform wie eben Facebook, Instagram, TikTok oder X werden von der EU besonders kontrolliert. Die Regeln dazu heißen Digital Services Act. "Die Europäische Union hat gesagt, das, was in der normalen, der analogen Welt verboten ist, das muss es künftig auch in der digitalen sein", sagt Klaus Müller, Präsident der Bundesnetzagentur, die auch dafür zuständig ist.
Bei Klaus Müllers Behörde können sich User aus Deutschland beschweren, wenn sie Probleme auf oder mit den Plattformen haben, wenn Sie Inhalte zum Beispiel nicht leicht melden können oder die Anbieter Entscheidungen über die Löschung oder Nichtlöschung nicht nachvollziehbar begründen. Die EU kann die großen Tech-Firmen dann theoretisch zu hohen Geldstrafen verdonnern, damit - wie Klaus Müller sagt: "Plattformen ein sicherer Ort sind".