Die Sicherheit der Menschen, die unsere Apps nutzen, liegt uns sehr am Herzen. Wir stehen in regelmäßigem Austausch mit Expert*innen zum Thema Suizid, Selbstverletzung und Essstörungen, was in unsere Richtlinien und Maßnahmen einfließt. Darüber hinaus arbeiten wir mit Organisationen in aller Welt zusammen, um Menschen in Not Unterstützung zu bieten.
Wir gestatten nicht, dass Suizid, Selbstverletzung oder Essstörungen absichtlich oder unabsichtlich verherrlicht oder gefördert werden. Wir lassen jedoch zu, dass Nutzer*innen Diskussionen zu diesen Themen führen, denn wir möchten, dass unsere Dienste ein Ort sind, an dem die Menschen ihre Erfahrungen teilen, für solche Themen sensibilisieren und sich gegenseitig unterstützen können. Wir können außerdem die Möglichkeit, solche Inhalte anzusehen, auf Erwachsene, die 18 Jahre oder älter sind, beschränken.
Wir entfernen Inhalte, die zu Suizid, Selbstverletzung oder Essstörungen ermutigen, darunter fiktive Inhalte wie Memes oder Illustrationen sowie drastische Selbstverletzungsinhalte, unabhängig vom Zusammenhang. Wir entfernen Inhalte, die Anleitungen für ein extremes Abnehmverhalten enthalten. Wir entfernen zudem Inhalte, die sich über Opfer oder Überlebende von Suizid(versuchen), Selbstverletzung oder Essstörungen lustig machen, sowie Echtzeit-Darstellungen von Suizid oder Selbstverletzungen. Inhalte zur Genesung nach einem Suizidversuch oder nach Selbstverletzung oder Essstörungen, die zulässig sind, jedoch Bilder enthalten können, die verstörend sein könnten, etwa eine abgeheilte Narbe, werden mit einem Warnhinweis versehen; und wir werden außerdem die Möglichkeit, den Inhalt anzusehen, auf Erwachsene, die 18 Jahre oder älter sind, beschränken.
Wenn Nutzer*innen Inhalte im Zusammenhang mit Suizid, Selbstverletzung oder Essstörungen posten oder danach suchen, verweisen wir sie an örtliche Organisationen, die Unterstützung anbieten. Wenn unser Community Operations-Team wegen eines unmittelbaren Schadens besorgt ist, verständigen wir die örtlichen Notfalldienste, damit die Nutzer*innen Hilfe erhalten. Weitere Informationen erhältst du im Meta Safety Center.
In Bezug auf Live-Inhalte wissen wir von Expert*innen, dass wir bei jemandem, der sagt, er wolle in einem Livestream Suizid begehen, den Inhalt so lange wie möglich online lassen sollen, denn je länger jemand in eine Kamera spricht, desto größer ist die Wahrscheinlichkeit, dass Freund*innen oder Familienangehörige die Notfalldienste verständigen können. Doch damit andere durch das Ansehen dieser Inhalte möglichst nicht beeinträchtigt werden, unterbrechen wir den Livestream an dem Punkt, an dem aus der Drohung ein Suizidversuch wird. Wie oben erwähnt, verständigen wir in jedem Fall die Notfalldienste, wenn wir feststellen, dass jemand unmittelbar Gefahr läuft, sich selbst Schaden zuzufügen.