Controllo dei contenuti: in quali casi utilizziamo la tecnologia e in quali il controllo umano
In presenza di contenuti che violano gli Standard della community, Meta si affida ai propri sistemi di applicazione delle normative per correre ai ripari. Ad esempio, utilizziamo strumenti di intelligenza artificiale e apprendimento automatico che ci aiutano a identificare e rimuovere grandi quantità di contenuti in violazione, spesso prima che vengano visualizzati dagli utenti. Quando alla nostra tecnologia sfugge qualche dettaglio o nei casi in cui necessita di più input, ci affidiamo a migliaia di addetti al controllo da ogni parte del mondo per l'applicazione degli Standard della community.
I contenuti potenzialmente in violazione vengono girati ai nostri team addetti al controllo, mentre a ciascun addetto viene assegnata una lista di post da valutare singolarmente. In alcuni casi, ad esempio per le immagini di nudo di adulti, è sufficiente che i revisori diano un'occhiata ai contenuti per capire quali violazioni sono sfuggite alla nostra tecnologia.
In altri, è fondamentale il contesto. Ad esempio, la nostra tecnologia può essere incerta circa l'interpretazione di eventuali atti di bullismo perché si tratta di un ambito normativo che spesso riflette la natura delle relazioni interpersonali e per il quale è necessario poter comprendere il contesto in modo più ampio e saper cogliere le sfumature. In situazioni di questo tipo, giriamo il post ai team addetti al controllo specializzati in questo tema e dotati delle conoscenze linguistiche opportune in modo che possano procedere con ulteriori verifiche. Se necessario, i nostri team si rivolgono agli esperti in materia dei team incaricati delle global operations e della normativa sui contenuti.
Quando occorre, forniamo agli addetti al controllo anche informazioni aggiuntive sul contenuto segnalato. Ad esempio, per le parole che storicamente vengono utilizzate come insulti razziali e che quindi sono riconducibili ai discorsi di incitamento all'odio ma che in contesti diversi possono essere interpretate come forme di autodeterminazione. In alcuni casi, spieghiamo meglio il contesto delle parole agli addetti al controllo per aiutarli ad applicare le nostre normative e a decidere se un determinato post deve essere rimosso o meno.