Social-Media-Plattformen Nachlässige Moderation, geringer Schutz
Der Digital Services Act der EU soll besonders Minderjährige im Internet schützen. Eine Studie zeigt: Große Plattformen moderieren nachlässig. Maximal jeder dritte Inhalt zu Essstörungen, Selbstverletzungen und Suiziden werde gelöscht.
Es sind verstörende Bilder: Eine Nutzerin, die ihren Oberarm mit Daumen und Zeigefinger umfasst, der Kommentar einer anderen Nutzerin dazu "pretty", "schön". Fotografien von hervorstehenden Rippen mit der Anmerkung: "Ich will mehr sichtbare Rippen sehen". Oder ein User, der seine nackten Beine zeigt, die er sich zentimeterweise mit einer Rasierklinge verletzt hat. Sein Kommentar: "Wow" und "Ich kann es kaum erwarten Fortschritte zu machen" - 2.500 Likes, 35.000 Views.
Die Fotos stammen von öffentlich zugänglichen Accounts auf Instagram, TikTok und X. Alle waren zum Zeitpunkt des Verfassens dieses Artikels noch online, alle waren als problematisch gemeldet worden.
Dass die Plattformen hier gar nicht oder nur zögerlich löschen und dies möglicherweise gegen das neue EU-Regelwerk, den Digital Services Act (DSA) verstößt, zu diesem Ergebnis kommt eine neue Untersuchung der Nichtregierungsorganisation "Reset". Sie lag NDR und "Süddeutscher Zeitung" vorab vor.
"Wir waren erschrocken, wie sehr die Plattformen versagen", sagt Rys Farthing, die die Untersuchung bei "Reset" leitete. Teilweise sei nur ein Prozent der Inhalte gelöscht worden. In keinem der Fälle seien es mehr als 30 Prozent gewesen.
Möglicher Verstoß gegen den Digital Services Act
Der DSA schreibt einen besonderen Schutz für Minderjährige vor. Zusätzlich legt er großen Netzwerken besondere Regeln auf: Insbesondere sogenannte Risikominderungsmaßnahmen. Dazu zählen etwa das Löschen, Verbergen oder Unterdrücken von Inhalten. Diese Maßnahmen müssen verhältnismäßig, aber eben auch wirksam sein.
Sabine Verheyen (CDU), Europaabgeordnete und Vorsitzende des Ausschusses für Kultur und Bildung, sieht Nachholbedarf: "Gerade beim Thema Jugendschutz ist mir das deutlich zu wenig, was zurzeit passiert. Ich glaube, dass wir hier noch stärker und noch deutlicher handeln müssen." Noch fehle es an Strukturen, um die Plattformen in der Einhaltung des DSA zu überwachen.
Die EU-Kommission sei in der Pflicht, sagt Rys Farthing von "Reset": "Die Kommission hat dieses mächtige Regelwerk beschlossen und muss es jetzt umsetzen." Von der Kommission heißt es dazu, man überwache die großen Netzwerke dem DSA gemäß.
Die Plattformen hätten bereits erste Berichte vorgelegt. Man sei in einem Prüfverfahren, um die bereit gestellten Informationen zu bewerten. Zum laufenden Verfahren werde man sich allerdings nicht äußern.
Geringe Löschraten
In der Untersuchung hat "Reset" unter anderem geprüft, wie gut die Plattformen problematische Inhalte moderieren. Dazu wurden mehr als 200 Bilder und Videos, die Essstörungen, Selbstverletzung oder Selbstmord verherrlichen oder verharmlosen, mit Hilfe einer Psychologin identifiziert und an die jeweilige Plattform gemeldet. Über einen Zeitraum von vier Wochen beobachtete die Organisation, ob die Postings gelöscht, mit einem Warnhinweis versehen - oder stehen gelassen wurden.
Bei Instagram beträgt die Löschrate 30 Prozent nach Meldungen von Postings zu Suizid und Selbstverletzung, bei denen zum Beispiel Wunden oder Narben in selbstverherrlichender Weise gezeigt werden. Damit steht Instagram besser dar als X, vormals Twitter, wo nur 13 Prozent, also gut jeder zehnte Beitrag gelöscht wurde. Bei TikTok lag die Löschrate bei gut einem Prozent.
Bei Fotos und Videos, die zum Beispiel rigorose Pläne für Gewichtsverlust vorstellen oder die Rippen und Rückenknochen als Ansporn zum weiteren Abnehmen zur Schau stellen, reagierten die Plattformen seltener. Nur etwa jeder zehnte Beitrag wurde gelöscht. Bei X waren es noch weniger.
Essstörungen seien unter den psychischen Erkrankungen die mit der höchsten Sterblichkeitsrate, gibt Psychotherapeutin Julia Tanck zu bedenken, die sich auf die Behandlung von Essstörungen und den Einfluss von sozialen Netzwerken spezialisiert hat. Sie sieht die Plattformen in der Verantwortung, konsequent zu löschen oder zu verbergen.
Gerade Jugendliche seien unsicher in Bezug auf ihr eigenes Körperbild, würden sich ständig vergleichen und seien deshalb besonders gefährdet, problematische Verhaltensweisen zu entwickeln.
Plattformen verweisen auf umfangreiche Maßnahmen
Die Plattformen verweisen auf Nachfrage von NDR und SZ auf umfangreiche Sicherheitsmaßnahmen, die sie bereits getroffen hätten. Bei Instagram etwa sind explizite Hashtags - wie #anorexie oder #essstörung - mit entsprechenden Hilfsangeboten versehen.
Von Meta heißt es, man versuche eine Balance zu finden zwischen einem Ort, an dem sich Betroffene austauschen und informieren könnten und dem Löschen sowie Verbergen der Inhalte. Ähnlich antwortet TikTok. Man arbeite mit Expertinnen und Experten auf dem Gebiet zusammen und verweise auf Hilfsangebote auf der Plattform. X antwortete nicht.