Meta

Meta
Beleid
Richtlijnen voor de communityAdvertentierichtlijnen van MetaAnder beleidHoe Meta verbeteringen aanbrengtContent selecteren die geschikt is voor de leeftijd

Functies
Onze benadering van gevaarlijke organisaties en personenOnze benadering van de opioïdenepidemieOnze benadering van verkiezingenOnze benadering van desinformatieOnze benadering van opmerkelijke contentOnze aanpak van rangschikking van het Facebook-overzichtOnze benadering van het uitleggen van rangschikkingenToegankelijkheid bij Meta

Tools voor onderzoek
Contentbibliotheek en Content Library APIAdvertentiebibliotheek-toolsAndere tools voor onderzoek en gegevenssets

Handhaving
Schendingen detecterenActie ondernemen

Toezicht
Innovatie van toezichtOverzicht van het Comité van toezichtBezwaar aantekenen bij het Comité van toezichtKwesties van het Comité van toezichtAanbevelingen van het Comité van toezichtHet Comité van toezicht oprichtenComité van toezicht: Overige gestelde vragenHalfjaarlijkse updates van Meta over het Comité van toezichtDe impact van het Comité van toezicht bijhouden

Beveiliging
Verstoren van dreigingenBeveiligingsrisico'sRapporten van dreigingen

Rapporten
Handhavingsrapport voor de richtlijnen voor de communityIntellectuele eigendomOverheidsverzoeken met betrekking tot gebruikersgegevensContentbeperkingen op basis van lokale wetgevingInternetonderbrekingenRapport over veel bekeken contentRegelgevingsrapporten en overige transparantierapporten

Beleid
Richtlijnen voor de community
Advertentierichtlijnen van Meta
Ander beleid
Hoe Meta verbeteringen aanbrengt
Content selecteren die geschikt is voor de leeftijd
Functies
Onze benadering van gevaarlijke organisaties en personen
Onze benadering van de opioïdenepidemie
Onze benadering van verkiezingen
Onze benadering van desinformatie
Onze benadering van opmerkelijke content
Onze aanpak van rangschikking van het Facebook-overzicht
Onze benadering van het uitleggen van rangschikkingen
Toegankelijkheid bij Meta
Tools voor onderzoek
Contentbibliotheek en Content Library API
Advertentiebibliotheek-tools
Andere tools voor onderzoek en gegevenssets
Handhaving
Schendingen detecteren
Actie ondernemen
Toezicht
Innovatie van toezicht
Overzicht van het Comité van toezicht
Bezwaar aantekenen bij het Comité van toezicht
Kwesties van het Comité van toezicht
Aanbevelingen van het Comité van toezicht
Het Comité van toezicht oprichten
Comité van toezicht: Overige gestelde vragen
Halfjaarlijkse updates van Meta over het Comité van toezicht
De impact van het Comité van toezicht bijhouden
Beveiliging
Verstoren van dreigingen
Beveiligingsrisico's
Rapporten van dreigingen
Rapporten
Handhavingsrapport voor de richtlijnen voor de community
Intellectuele eigendom
Overheidsverzoeken met betrekking tot gebruikersgegevens
Contentbeperkingen op basis van lokale wetgeving
Internetonderbrekingen
Rapport over veel bekeken content
Regelgevingsrapporten en overige transparantierapporten
Beleid
Richtlijnen voor de community
Advertentierichtlijnen van Meta
Ander beleid
Hoe Meta verbeteringen aanbrengt
Content selecteren die geschikt is voor de leeftijd
Functies
Onze benadering van gevaarlijke organisaties en personen
Onze benadering van de opioïdenepidemie
Onze benadering van verkiezingen
Onze benadering van desinformatie
Onze benadering van opmerkelijke content
Onze aanpak van rangschikking van het Facebook-overzicht
Onze benadering van het uitleggen van rangschikkingen
Toegankelijkheid bij Meta
Tools voor onderzoek
Contentbibliotheek en Content Library API
Advertentiebibliotheek-tools
Andere tools voor onderzoek en gegevenssets
Beveiliging
Verstoren van dreigingen
Beveiligingsrisico's
Rapporten van dreigingen
Rapporten
Handhavingsrapport voor de richtlijnen voor de community
Intellectuele eigendom
Overheidsverzoeken met betrekking tot gebruikersgegevens
Contentbeperkingen op basis van lokale wetgeving
Internetonderbrekingen
Rapport over veel bekeken content
Regelgevingsrapporten en overige transparantierapporten
Handhaving
Schendingen detecteren
Actie ondernemen
Toezicht
Innovatie van toezicht
Overzicht van het Comité van toezicht
Bezwaar aantekenen bij het Comité van toezicht
Kwesties van het Comité van toezicht
Aanbevelingen van het Comité van toezicht
Het Comité van toezicht oprichten
Comité van toezicht: Overige gestelde vragen
Halfjaarlijkse updates van Meta over het Comité van toezicht
De impact van het Comité van toezicht bijhouden
Beleid
Richtlijnen voor de community
Advertentierichtlijnen van Meta
Ander beleid
Hoe Meta verbeteringen aanbrengt
Content selecteren die geschikt is voor de leeftijd
Functies
Onze benadering van gevaarlijke organisaties en personen
Onze benadering van de opioïdenepidemie
Onze benadering van verkiezingen
Onze benadering van desinformatie
Onze benadering van opmerkelijke content
Onze aanpak van rangschikking van het Facebook-overzicht
Onze benadering van het uitleggen van rangschikkingen
Toegankelijkheid bij Meta
Tools voor onderzoek
Contentbibliotheek en Content Library API
Advertentiebibliotheek-tools
Andere tools voor onderzoek en gegevenssets
Handhaving
Schendingen detecteren
Actie ondernemen
Toezicht
Innovatie van toezicht
Overzicht van het Comité van toezicht
Bezwaar aantekenen bij het Comité van toezicht
Kwesties van het Comité van toezicht
Aanbevelingen van het Comité van toezicht
Het Comité van toezicht oprichten
Comité van toezicht: Overige gestelde vragen
Halfjaarlijkse updates van Meta over het Comité van toezicht
De impact van het Comité van toezicht bijhouden
Beveiliging
Verstoren van dreigingen
Beveiligingsrisico's
Rapporten van dreigingen
Rapporten
Handhavingsrapport voor de richtlijnen voor de community
Intellectuele eigendom
Overheidsverzoeken met betrekking tot gebruikersgegevens
Contentbeperkingen op basis van lokale wetgeving
Internetonderbrekingen
Rapport over veel bekeken content
Regelgevingsrapporten en overige transparantierapporten
Nederlands
PrivacybeleidServicevoorwaardenCookies
Home
Beleidsregels
Verbetering
Statistiek Content waarop actie is ondernomen

Content waarop actie is ondernomen

BIJGEWERKT 6 NOV. 2024
We meten het aantal contentitems (zoals berichten, foto's, video's of opmerkingen) of accounts waarop we actie ondernemen omdat ze in strijd zijn met onze richtlijnen. Deze statistiek geeft de schaal weer van onze handhavingsactiviteit. Actie ondernemen kan bestaan uit het verwijderen van een contentitem van Facebook of Instagram, het bedekken van foto's of video's die voor sommige doelgroepen verontrustend kunnen zijn met een waarschuwing, of het uitschakelen van accounts. In het geval dat we content escaleren naar wetshandhaving, tellen we dat niet extra mee.
Het kan verleidelijk zijn om de statistiek van onze content waarop actie is ondernomen te lezen als een indicator van hoe effectief we schendingen of de impact van die schendingen op onze community vinden. De hoeveelheid content waarop we actie ondernemen is echter slechts een deel van het verhaal. Het geeft niet aan hoelang het duurde om een schending te detecteren of hoe vaak gebruikers die schending hebben gezien terwijl deze op Facebook of Instagram stond.
Deze statistiek kan toenemen of afnemen als gevolg van externe factoren waarop we geen invloed hebben. Denk bijvoorbeeld aan een cyberaanval waarbij spammers 10 miljoen berichten delen met dezelfde schadelijke URL. Nadat we de URL hebben gedetecteerd, verwijderen we de 10 miljoen berichten. Content waarop actie is ondernomen zou dan rapporteren dat op basis van 10 miljoen contentitems actie is ondernomen, wat een enorme piek is. Dit aantal weerspiegelt echter niet noodzakelijkerwijs dat we beter zijn geworden in ondernemen van actie tegen spam. Het weerspiegelt eerder dat spammers die maand besloten om Facebook aan te vallen met niet-geavanceerde spam die gemakkelijk was te detecteren. Content waarop actie is ondernomen geeft ook niet aan hoeveel van die spam gebruikers heeft beïnvloed: mensen hebben de spam mogelijk een paar keer gezien, of een paar honderd of duizend keer. (Die informatie wordt opgenomen in prevalentie.) Na de cyberaanval kan de content waarop actie is ondernomen drastisch afnemen, zelfs als onze detectie verbetert.
policy-image
Een contentitem kan verschillende dingen zijn, bijvoorbeeld een bericht, foto, video of opmerking.

Hoe we content en acties tellen
De manier waarop we afzonderlijke contentitems tellen, kan complex zijn en heeft zich in de loop van de tijd ontwikkeld. In juli 2018 hebben we onze methodologie bijgewerkt om te verduidelijken op hoeveel afzonderlijke contentitems we actie hebben ondernomen wegens schending van ons beleid, en we zullen onze methodologie blijven ontwikkelen en verbeteren als onderdeel van ons streven om de nauwkeurigste en zinvolste statistieken te bieden. Over het algemeen is het onze bedoeling om een nauwkeurige weergave te geven van het totale aantal contentitems waarop we actie ondernemen wegens schending van ons beleid.
Er zijn enkele verschillen in hoe we content op Facebook ten opzichte van Instagram tellen.
Op Facebook telt een bericht zonder foto of video of een enkele foto of video als één contentitem. Dit betekent dat al het volgende, indien verwijderd, zou worden geteld als één contentitem: een bericht met één foto, dat schendt; een bericht met tekst, dat schendt; en een bericht met tekst en een foto, waarvan er één of beide schenden.
Wanneer een Facebook-bericht meerdere foto's of video's heeft, tellen we elke foto of video als een contentitem. Als we bijvoorbeeld 2 inbreukmakende foto's uit een Facebook-bericht met 4 foto's verwijderen, zouden we dit tellen als 2 contentitems waarop actie is ondernomen: één voor elke verwijderde foto. Als we het hele bericht verwijderen, tellen we het bericht ook mee. Als we bijvoorbeeld een Facebook-bericht met 4 foto's verwijderen, zouden we dit tellen als 5 contentitems waarop actie is ondernomen: één voor elke foto en één voor het bericht. Als we alleen sommige van de bijgevoegde foto's en video's van een bericht verwijderen, tellen we alleen die contentitems.
Op Instagram verwijderen we het hele bericht als het inbreukmakende content bevat, en we tellen dit als één contentitem waarop actie wordt ondernomen, ongeacht het aantal foto's of video's dat in het bericht staat.
Soms wordt een contentitem gevonden dat meerdere richtlijnen schendt. Ten behoeve van de meting schrijven we de actie toe aan slechts één primaire schending. Normaal gesproken is dit de schending met de zwaarste norm. In andere gevallen vragen we de beoordelaar om een besluit te nemen over de primaire reden voor schending.

Hoe we schendingen labelen
Elke keer dat we actie ondernemen op basis van een contentitem, labelen we de content met het beleid dat is geschonden. Wanneer beoordelaars rapporten bekijken, selecteren ze eerst of het materiaal ons beleid schendt of niet. Als ze Ja selecteren, labelen ze vervolgens met het type schending.
In het verleden vroegen we onze beoordelaars niet om de schendingen te labelen wanneer ze besluiten namen. In plaats daarvan vertrouwden we op informatie die gebruikers ons gaven als ze rapporten indienden. In 2017 hebben we ons beoordelingsproces geüpgraded om meer gedetailleerde informatie vast te leggen over waarom beoordelaars een contentitem hebben verwijderd, waardoor we nauwkeurigere statistieken konden vaststellen. We hebben ook onze detectietechnologie bijgewerkt, zodat schendingen worden gelabeld als ze worden gevonden, gemarkeerd of verwijderd met dezelfde labels als de besluiten van onze beoordelaars.
policy-image
Voor het tellen van de content waarop actie is ondernomen wegens een specifieke schending van een richtlijn, moeten we de schending labelen telkens wanneer we een actie ondernemen.

Accounts waarop actie is ondernomen op Facebook omdat ze nep zijn
Voor nepaccounts rapporteren we 'accounts waarop actie is ondernomen', in tegenstelling tot 'content waarop actie is ondernomen'. 'Accounts waarop actie is ondernomen' is het aantal accounts dat we uitschakelen omdat ze nep zijn.

Voorwaarden
Content en accounts op basis waarvan actie is ondernomen bevatten geen gevallen waarin we het maken van content of accounts blokkeren, zoals we doen wanneer we spammers detecteren die met hoge frequentie proberen een bericht te plaatsen of wanneer we zien dat een nepaccount is gemaakt. Als we deze blokkeringen zouden opnemen, zou dit de aantallen (waarschijnlijk met miljoenen per dag) voor uitgeschakelde nepaccounts en verwijderde spamcontent drastisch verhogen.
Wanneer we URL's handhaven, verwijderen we alle huidige of toekomstige content die deze links bevat. We meten op basis van op hoeveel content we actie hebben ondernomen als een gebruiker deze content op Facebook probeert weer te geven.

Hoe we acties meten op basis van accounts, pagina's, groepen en evenementen
Er kunnen grote hoeveelheden content worden gebruikt in gebruikersaccounts, pagina's, groepen of evenementen op Facebook. Een van deze objecten als geheel kan ons beleid schenden, op basis van content of gedrag daarin. We kunnen meestal vaststellen dat een account, pagina, groep of evenement in strijd is met de richtlijnen zonder alle content erin te bekijken. Als we een account, pagina, groep of evenement uitschakelen, wordt alle content erin automatisch ontoegankelijk voor gebruikers.
In de statistieken in het Handhavingsrapport voor de richtlijnen voor de community tellen we alleen de content in accounts, pagina's, groepen en evenementen waarvan we gedurende onze beoordelingen van deze objecten hebben vastgesteld dat deze inbreukmakend zijn en waarop we uitdrukkelijk actie hebben ondernomen. We tellen geen content die automatisch is verwijderd na het uitschakelen van het account, de pagina, de groep of het evenement waarin die content was opgenomen.
Op dit moment bevat dit rapport geen statistieken gerelateerd aan accounts voor schendingen, met uitzondering van nepaccounts op Facebook. Dit rapport bevat ook geen statistieken over pagina's, groepen of evenementen waarvoor we actie hebben ondernomen vanwege schendingen, maar alleen content binnen die objecten.
Lees het nieuwste handhavingsrapport voor de richtlijnen voor de community
Meta
Transparantiecentrum
Beleid
Handhaving
Beveiliging
Functies
Toezicht
Tools voor onderzoek
Rapporten
Nederlands