[Kontrolle von Sozialen Medien: Innerhalb eines Jahres haben Facebook und Instagram 168 Millionen Posts in der EU wegen Regelverstößen gelöscht.* Ist das Zensur? | ZEIT ONLINE](https://www.zeit.de/2025/03/kontrolle-soziale-medien-meta-facebook-instagram-zensur/komplettansicht)

 Die Debatte über soziale Netzwerke dreht sich ja meistens darum, was alles noch gesagt werden darf. Was gerade noch okay ist und was nicht mehr. Wo bei [Facebook](https://www.zeit.de/thema/facebook) und Instagram die Grenze verläuft. Hier mal drei Fälle:

_"Wie in jeder Krise hat sich der Deutsche Staat als allwissender Retter der Bevölkerung geriert und Zweifler zum Schweigen gebracht. Die Deutschen werden nie aufhören das zu fressen, was vom Staat kommt, ob im 3.Reich, in der DDR oder heute."_

_(29. September 2024, entfernt auf Grundlage von Instagrams Richtlinie zu Spam)_

_Fünf Beiträge, die Füße in weißen Socken zeigen und mit den Schlagworten #fetisch und #feetslovers versehen sind_

_(5. August 2024, entfernt aufgrund von Instagrams Richtlinie zu sexuell motivierter Kontaktaufnahme durch Erwachsene)_

_"Die Pager der Hisbollah in die Luft zu jagen, wäre ein entscheidender Wendepunkt in einem Krieg zugunsten Israels gewesen. Aber jetzt haben sie diesen Trick verschwendet, um einen Krieg hinauszuzögern, von dem sie wissen, dass sie ihn nicht gewinnen können. (...) Die Hisbollah hat sich nicht abschrecken lassen, (...) und die Hamas ist noch immer quicklebendig. Jetzt warten wir auf die Antwort."_

_(24. September 2024, entfernt aufgrund von Instagrams Richtlinie zu gefährlichen Organisationen)_

Glaubt man Mark Zuckerberg, dem Chef des Meta-Konzerns, zu dem [Instagram](https://www.zeit.de/thema/instagram) und Facebook gehören, dann mussten diese und andere Beiträge verschwinden, weil die EU das so will. "Regierungen und etablierte Medien haben uns gedrängt, immer mehr zu zensieren", sagte der Facebook-Gründer vergangene Woche in einem Video, "vieles davon ist eindeutig politisch motiviert". Man habe in den vergangenen Jahren "komplexe Systeme" für die Moderation von Inhalten entwickelt. Diese würden jedoch Menschen ausschließen und Meinungen unterdrücken. Zuckerberg will das nun rückabwickeln, [Faktenchecks abschaffen und Moderatoren entmachten](https://www.zeit.de/digital/2025-01/meta-facebook-instagram-threads-zuckerberg-mark-faktencheck-ende), die ihm plötzlich zu _"biased"_ sind, zu voreingenommen.

Da schwingt viel Opportunismus mit, kurz bevor [Donald Trump zum zweiten Mal Präsident wird](https://www.zeit.de/thema/donald-trump). Aber könnte es sein, dass Zuckerberg einen Punkt hat? Dass seine Netzwerke tatsächlich zu stark eingreifen in die freie Rede?

Von Oktober 2023 bis Oktober 2024 haben Facebook und Instagram in der EU 168 Millionen Beiträge gelöscht. In 8,7 Millionen Fällen reichten Nutzer dagegen Beschwerde ein. Mehr als zwei Millionen Posts wurden daraufhin wiederhergestellt. Jeden vierten dieser Beiträge hatte [Meta](https://www.zeit.de/thema/meta) folglich zu Unrecht gelöscht. Offenbar gibt es also ein Problem.

Nun ist Meinungsfreiheit eigentlich etwas, das Staat und Bürger untereinander ausmachen. Aber weil Facebook und andere Firmen einen so großen Teil der öffentlichen Debatte abbilden und bei sich versammeln, entscheiden die Löschpraktiken auch über gesellschaftliche Teilhabe. [Seit einem Jahr gibt der Digital Services Act (DSA) der EU](https://www.zeit.de/digital/2024-02/euopaeische-union-aenderungen-digital-service-act) deshalb einige Regeln vor. Löschen müssen die Plattformen eindeutig Illegales, wie Kinderpornografie und Aufrufe zu Gewalttaten. Darüber hinaus sollen sie grundsätzlich sichere Orte sein. Was die Plattformen darunter verstehen, legen sie in ihren Hausregeln fest.

Fehlentscheidungen einer KI
---------------------------

Ob sie dabei zu weit gehen, wird auch in einem Erdgeschoss in Berlin-Kreuzberg verhandelt, im Büro der User Rights GmbH. Niklas Eder, 34, und Raphael Kneer, 36, beide Juristen, sind die Geschäftsführer. Ihr Team ist vor wenigen Tagen erst eingezogen, bisher stehen nur ein paar Schreibtische und Bildschirme, es gibt noch keine Kaffeemaschine und kein Klingelschild. An Arbeit mangelt es aber nicht. Seit vergangenem August können Nutzer bei User Rights Beschwerde einlegen gegen Instagram, TikTok und LinkedIn, bald auch gegen alle übrigen Plattformen. Etwa wenn man einen Post gemeldet hat, der gelöscht werden sollte, und Meta nicht reagiert. Oder wenn der eigene Account gesperrt oder Beiträge entfernt wurden.

Über 500 Verfahren laufen schon, sagt Kneer, "es melden sich bisher vor allem die, deren Beiträge zu Unrecht moderiert wurden". Der Mann, der sich in DDR-Verhältnissen wähnt und das dann, wie zur Bestätigung, online nicht sagen darf. Der Fußfetischist, dessen Bilder eigentlich harmlos sind. Oder der Nutzer, der Bedenken äußern wollte an Israels Kriegsführung. In allen drei Fällen hat User Rights Instagram aufgefordert, die Beiträge wiederherzustellen.

Nach dem europäischen Digital Services Act müssen die Konzerne offenlegen, warum sie Beiträge entfernen oder eben nicht – und sie müssen zeitnah auf Widerspruch reagieren. Dafür sieht der DSA Schlichtungsstellen vor. Dort entscheiden Juristen, ob eine Maßnahme gerechtfertigt war. User Rights ist eine der ersten in der EU und die bisher einzige in Deutschland.

Ein erstes Fazit nach vier Monaten? "Es kommt wirklich oft zu Fehlern", sagt Kneer. Das liege auch daran, dass die Plattformen einen Großteil der Regelverstöße mithilfe von künstlicher Intelligenz ahnden, um Kosten und Zeit zu sparen und Mitarbeiter vor verstörenden Bildern zu schützen. Ist also die Technik ursächlich für die vielen falschen Entscheidungen, nicht die Regulierungswut der EU? Zuletzt lag Metas Automatisierungsquote bei 95 Prozent. "Das ist ein Problem", sagt Kneer, "die Fälle, die uns erreichen, sind viel zu komplex, um sie nur mit KI zu prüfen."

Zum Beispiel: In Beiträgen, in denen die Namen "Hisbollah" und "Hamas" fallen, wird mit erhöhter Wahrscheinlichkeit eine Terrororganisation gelobt. Wenn es nach der KI geht, also nur nach Statistik und unter Missachtung von Nuancen, sind Äußerungen zum Krieg im Nahen Osten oft nicht möglich.

Oder der Mann, der auf TikTok Naziparodien hochlädt. Selbst Raphael Kneer hat die Videos erst auf den zweiten Blick als erlaubte Satire erkannt. Wie soll das einem Algorithmus gelingen? Und natürlich weiß jeder, was gemeint ist, wenn unter dem Video einer Transfrau "Nutti" kommentiert wird oder junge Rechte Plakate mit der Aufschrift "Alles für DE" posten – nur die Software eben nicht.

Statt die Systeme zu verbessern, nutzt Zuckerberg nun das politische Klima, um sie in Teilen abzuschalten. In den USA dürfen Frauen jetzt wieder als "Haushaltsinventar" bezeichnet werden und Homosexuelle als "geisteskrank". Bisher ließen Facebook und Instagram solche Aussagen nicht zu.

Ob diese Plattformpolitik auch in der EU möglich wäre, ist noch offen. Im DSA stehen dazu einige schwammige, beinahe unbeholfene Formulierungen. Da ist zum Beispiel die Rede von "systemischen Risiken" für die Demokratie, die es zu verhindern gilt, ohne dass sich daraus konkrete Pflichten ergeben. Und wann ist die Vorgabe erfüllt, Nutzer zu schützen, die besonders gefährdet sind, "Opfer von Hassreden" zu werden? Kritiker der Verordnung sagen, in solchen juristischen Grauzonen würde im Zweifel eher zu viel gelöscht als zu wenig. Einer von ihnen ist der Anwalt Joachim Steinhöfel. Vor Gericht war er in den vergangenen Jahren der vermutlich hartnäckigste Gegner von Meta in Deutschland. Über hundertmal ist Steinhöfel dagegen vorgegangen, dass Beiträge gelöscht wurden, die legal und im Rahmen der Meinungsfreiheit erlaubt sind. Sein [Buch _Die digitale Bevormundung_](https://www.zeit.de/2024/34/joachim-steinhoefel-rechtsanwalt-gericht-meinungsfreiheit-grundrecht) wurde _Spiegel__\-_Bestseller. Für Zuckerbergs Kehrtwende hat Steinhöfel – wenig überraschend – nur Lob übrig. In der Gesellschaft gebe es ohnehin "einen Überdruss an einem sprachlichen Korsett, das durch den DSA viel enger ist als das, was gesetzlich eigentlich erlaubt ist".

Selbst durch ein enges Netz ist bisher noch sehr viel durchgekommen
-------------------------------------------------------------------

Man kann sich Metas Moderationspraxis in etwa vorstellen wie ein Fischernetz. Bisher war es recht engmaschig, viele Raubfische gingen ins Netz, Beifang wurde in liberalen Demokratien hingenommen für ein halbwegs gesittetes Miteinander. Diesen Konsens gibt es in den USA nicht mehr, und auch in Europa wird die Kritik daran lauter. Wenn also bald die Maschen größer werden, dann geraten zwar nicht mehr so oft die Falschen ins Netz. Dafür erwischt man aber auch weniger von den Richtigen.

Zuckerberg macht damit vieles rückgängig, was Meta in den vergangenen Jahren aufgebaut hat. Das Faktencheckprogramm, bei dem externe Organisationen Falschmeldungen korrigieren, war eine Reaktion auf Desinformation im US-Wahlkampf 2016. "Aber anders als 2016 ist Trump jetzt kein Unfall mehr", sagt ein ehemaliger Meta-Mitarbeiter. Zuckerberg sehe darin auch die Chance, endlich die Gesetze der EU auszuhebeln. Der Meta-Chef macht kein Geheimnis daraus: [Er wolle mit Donald Trump zusammenarbeiten](https://www.zeit.de/digital/2025-01/mark-zuckerberg-facebook-instagram-meta-donald-trump), "um die Regierungen weltweit unter Druck zu setzen", sagte er in seiner Videobotschaft.

Noch arbeitet Meta in der EU mit Faktenprüfern zusammen, unter anderem mit dem Recherchenetzwerk Correctiv und der Deutschen Presse-Agentur. Sie können allerdings keine Beiträge löschen, sie verpassen ihnen nur einen Hinweis, wenn sie "Fehlinformationen" enthalten, und hängen ihre Recherchen an. Es gibt Studien, die nahelegen, dass solche Warnhinweise wirken. Aber wenn sie etwas zu Unrecht beanstanden, können sie auch Vertrauen zerstören. Steinhöfel hat bereits mehrfach Verfahren gegen die Faktenchecks angestrengt. In einem Fall bewertete das Oberlandesgericht Karlsruhe den Hinweis "fehlender Kontext" von Correctiv unter einem Facebook-Beitrag zur Pandemie als mögliche Irreführung. Die Begründung: Correctiv habe keine Tatsachenbehauptung infrage gestellt, den Beitrag lediglich kritisch bewertet.

Die Europäische Kommission steht nun vor der Frage, wie wirksam der Digital Services Act noch ist, wenn Firmen wie Meta und X jede Selbstverpflichtung aufheben. "Mark Zuckerberg verändert gerade die Geschäftsgrundlage", sagt Klaus Müller, Chef der Bundesnetzagentur. Er überwacht die Umsetzung des DSA. "Neben der Meinungsfreiheit gibt es auch andere Grundrechte, die gewahrt werden müssen."

Denn selbst durch ein enges Netz ist bisher noch sehr viel durchgekommen, das eigentlich verboten ist. Welche verheerenden Folgen das hat, zeigt eine Studie der Technischen Universität München und der gemeinnützigen Organisation HateAid, die an diesem Mittwoch veröffentlicht wird. Befragt wurden 742 Politikerinnen und Politiker aus Kommunen, Land und Bund. Die Umfrage ist nicht repräsentativ, gibt aber einen Einblick in die Probleme. Fast ein Viertel der von digitaler Gewalt betroffenen Frauen gab an, ihnen sei online schon einmal mit Vergewaltigung gedroht worden, bei den Männern berichtet die Hälfte, dass ihnen mit Schlägen gedroht wurde oder mit Mord. Ein erheblicher Teil hat schon einmal erwogen, deswegen aus der Politik auszuscheiden.

"Diesen Politikerinnen und Politikern geht es nicht um normale Beleidigungen und Kritik, damit können sie umgehen. Aber einige von ihnen erleben tägliche Angriffe auf ihre Menschenwürde", sagt Anna-Lena Hodenberg, die Geschäftsführerin von HateAid. Hodenberg weist angesichts ihrer Erfahrung mit Opfern die Vorstellung zurück, es werde zu viel gelöscht und in die Meinungsfreiheit eingegriffen. Nur kann eben beides wahr sein: Die Moderation funktioniert an beiden Enden des Spektrums nicht gut genug. Oft wird übersehen, was hätte gelöscht werden müssen – und entfernt, was von der Meinungsfreiheit gedeckt ist. Das liegt derzeit vor allem an den automatischen Systemen. Mark Zuckerberg kann gerade nichts damit gewinnen, sie zu verbessern.

_\* Bei 161 Millionen von den 168 Millionen Beiträge traf eine künstliche Intelligenz die Entscheidung._