In che modo Meta assegna la priorità ai contenuti da controllare
AGGIORNATO 12 NOV 2024
Altre volte, l'identificazione è più difficile. Magari l'intenzione del post non è chiara, il linguaggio è particolarmente complesso o le immagini molto legate al contesto. In questi casi eseguiamo ulteriori controlli che prevedono l'intervento di esseri umani.
Fattori prioritari per il controllo umano
Quando stabiliamo quale sia il contenuto che i team addetti al controllo devono controllare per primo, consideriamo tre fattori principali:
GRAVITÀ
Quanto è probabile che il contenuto possa causare danni, sia online che offline?
DIFFUSIONE
Quanto velocemente viene condiviso il contenuto?
PROBABILITÀ DI VIOLAZIONE
Quanto è probabile che il contenuto in questione violi di fatto le nostre normative?
I team addetti al controllo umano aiutano la tecnologia a migliorare
I nostri team addetti al controllo umano usano le loro competenze in determinate lingue e aspetti delle normative per prendere decisioni difficili e spesso sottili. Ogni volta che i revisori prendono una decisione, usiamo queste informazioni per addestrare la nostra tecnologia. Con il tempo, attraverso milioni di decisioni, la nostra tecnologia migliora, permettendoci di rimuovere altri contenuti in violazione.
In che modo aiutiamo i revisori a fare le scelte giuste
La tecnologia aiuta i team addetti al controllo umano a svolgere al meglio la loro attività
Come altri modelli di apprendimento automatico, la nostra tecnologia migliora nel tempo con gli esempi di contenuti in violazione che riceve. Ciò significa che i team addetti al controllo umano riescono a concentrarsi sui contenuti più gravi, virali, sfumati, nuovi e complessi, ossia su quelle decisioni per cui l'intervento umano è migliore rispetto a quello della tecnologia.
Domande frequenti sulle priorità per il controllo dei contenuti
Come sono cambiate le priorità nel corso del tempo?
In passato, i team addetti al controllo umano trascorrevano la maggior parte del tempo controllando contenuti segnalati dalle persone. Ciò significa che spesso trascorrevano troppo tempo su contenuti poco gravi o non in violazione e non ne avevano abbastanza da dedicare ai casi più gravi, che rappresentavano un pericolo elevato. Le decisioni umane, inoltre, non erano utili a migliorare le nostre tecnologie per l'applicazione delle normative.
Il nostro attuale approccio alle priorità va in questa direzione, consentendoci di controllare per primi i contenuti potenzialmente pericolosi e migliorare la nostra tecnologia più rapidamente.
I team addetti al controllo umano controllano ogni segnalazione degli utenti?
Non necessariamente. Sia i team addetti al controllo che la tecnologia svolgono un ruolo fondamentale nel controllo delle segnalazioni. Nei casi in cui la nostra tecnologia riesca ad analizzare un determinato contenuto, esegue o non esegue automaticamente un'azione sul contenuto in questione.
Come fate a verificare che le decisioni umane non introducano errori nella vostra tecnologia?
Per affrontare le preoccupazioni su trasparenza e inclusione associate all'implementazione dell'IA nelle tecnologie di Meta, abbiamo creato il team Responsible AI, un team dedicato e multidisciplinare composto da esperti di etica, ricercatori in ambito politico e sociale, esperti di normative, ricercatori e ingegneri di IA. L'obiettivo generale del team è sviluppare linee guida, strumenti e processi per gestire le problematiche legate alla responsabilità dell'IA e diffondere queste risorse sistemiche all'interno di Meta.