In che modo Meta assegna la priorità ai contenuti da controllare

AGGIORNATO 12 NOV 2024
La tecnologie di Meta individuano e rimuovono la maggior parte dei contenuti in violazione prima che vengano segnalati. Quando qualcuno pubblica un contenuto su Facebook, Instagram, Messenger o Threads, le nostre tecnologie verificano se il contenuto viola gli Standard della community. Nella maggior parte dei casi, l'identificazione è una procedura semplice. Il post viola o non viola le nostre normative in modo chiaro.
Altre volte, l'identificazione è più difficile. Magari l'intenzione del post non è chiara, il linguaggio è particolarmente complesso o le immagini molto legate al contesto. In questi casi eseguiamo ulteriori controlli che prevedono l'intervento di esseri umani.
Fattori prioritari per il controllo umano
Quando stabiliamo quale sia il contenuto che i team addetti al controllo devono controllare per primo, consideriamo tre fattori principali:
GRAVITÀ
Quanto è probabile che il contenuto possa causare danni, sia online che offline?
DIFFUSIONE
Quanto velocemente viene condiviso il contenuto?
PROBABILITÀ DI VIOLAZIONE
Quanto è probabile che il contenuto in questione violi di fatto le nostre normative?
Per prevenire quanti più danni possibili, i nostri sistemi di controllo usano la tecnologia per assegnare priorità ai contenuti gravi che presentano pericoli di violenza offline e ai contenuti virali che si diffondono rapidamente.
I team addetti al controllo umano aiutano la tecnologia a migliorare
I nostri team addetti al controllo umano usano le loro competenze in determinate lingue e aspetti delle normative per prendere decisioni difficili e spesso sottili. Ogni volta che i revisori prendono una decisione, usiamo queste informazioni per addestrare la nostra tecnologia. Con il tempo, attraverso milioni di decisioni, la nostra tecnologia migliora, permettendoci di rimuovere altri contenuti in violazione.
In che modo aiutiamo i revisori a fare le scelte giuste
La tecnologia aiuta i team addetti al controllo umano a svolgere al meglio la loro attività
Come altri modelli di apprendimento automatico, la nostra tecnologia migliora nel tempo con gli esempi di contenuti in violazione che riceve. Ciò significa che i team addetti al controllo umano riescono a concentrarsi sui contenuti più gravi, virali, sfumati, nuovi e complessi, ossia su quelle decisioni per cui l'intervento umano è migliore rispetto a quello della tecnologia.
Domande frequenti sulle priorità per il controllo dei contenuti
In passato, i team addetti al controllo umano trascorrevano la maggior parte del tempo controllando contenuti segnalati dalle persone. Ciò significa che spesso trascorrevano troppo tempo su contenuti poco gravi o non in violazione e non ne avevano abbastanza da dedicare ai casi più gravi, che rappresentavano un pericolo elevato. Le decisioni umane, inoltre, non erano utili a migliorare le nostre tecnologie per l'applicazione delle normative.
Il nostro attuale approccio alle priorità va in questa direzione, consentendoci di controllare per primi i contenuti potenzialmente pericolosi e migliorare la nostra tecnologia più rapidamente.
Non necessariamente. Sia i team addetti al controllo che la tecnologia svolgono un ruolo fondamentale nel controllo delle segnalazioni. Nei casi in cui la nostra tecnologia riesca ad analizzare un determinato contenuto, esegue o non esegue automaticamente un'azione sul contenuto in questione.
Per affrontare le preoccupazioni su trasparenza e inclusione associate all'implementazione dell'IA nelle tecnologie di Meta, abbiamo creato il team Responsible AI, un team dedicato e multidisciplinare composto da esperti di etica, ricercatori in ambito politico e sociale, esperti di normative, ricercatori e ingegneri di IA. L'obiettivo generale del team è sviluppare linee guida, strumenti e processi per gestire le problematiche legate alla responsabilità dell'IA e diffondere queste risorse sistemiche all'interno di Meta.