Ausweitung unseres Engagements: Fehlinformationen und Transparenz
AKTUALISIERT 12.11.2024
Als wir das Stakeholder-Engagement-Team für Content-Richtlinien eingerichtet haben, lag unser Schwerpunkt darauf, externe Perspektiven in die Entwicklung der Gemeinschaftsstandards einfließen zu lassen, die festlegen, was erlaubt ist und was nicht. Generell gilt: Sobald wir auf Inhalte aufmerksam werden, die gegen die Gemeinschaftsstandards verstoßen, entfernen wir sie.
Im Laufe der Zeit hat sich der Umfang unserer Richtlinien erweitert, ebenso wie unser Engagement. Wir haben zusätzliche Richtlinien entwickelt, für Inhalte, die problematisch sind, aber nicht von unseren Plattformen entfernt werden sollten. Wenn Inhalte beispielsweise übertriebene Behauptungen zu Gesundheitsthemen enthalten, es sich um Spam oder Clickbait handelt oder sie von externen Faktenprüfern widerlegt wurden, werden wir ihre Verbreitung im Feed einschränken. Wir haben eine Strategie entwickelt, wie wir mit dieser Art von Inhalten umgehen wollen, und wir haben Richtlinien veröffentlicht, die das Ranking und die Empfehlungssysteme regeln, die zur Verbreitung von Inhalten auf der Plattform verwendet werden. Zu den von uns festgelegten Richtlinien gehören unser allgemeiner Ansatz zu Fehlinformationen, unsere Richtlinien zu gefährlichen Gesundheitsfehlinformationen und Fehlinformationen zu Impfungen, die Meta-Richtlinie zu staatlichen Medien, die Richtlinien für Empfehlungen, die Richtlinien für die Verbreitung von Inhalten, die Richtlinie für News Publisher mit Verbindungen zu politischen Organisationen und unser Ansatz zu grenzwertigen Inhalten zu Impfstoffen.
Wir haben uns auch intensiv für die Entwicklung von Meta-Richtlinien zu Fehlinformationen im Zusammenhang mit Covid-19 eingesetzt. Weitere Informationen findest du in diesem wissenschaftlichen Beitrag, der im „Journal of Online Trust and Safety“ veröffentlicht wurde.