Disinformazione
Dettagli sulla normativa
REGISTRO MODIFICHE
Oggi
7 apr 2025
13 mar 2025
7 gen 2025
18 lug 2024
9 lug 2024
10 giu 2024
20 mag 2024
6 feb 2024
5 dic 2023
29 set 2023
14 lug 2023
Fondamenti della normativa
La disinformazione differisce rispetto ad altri tipi di forme di espressione trattate nei nostri Standard della community poiché non è possibile formulare una lista completa dei contenuti non consentiti. Riguardo ai contenuti visivi violenti o condotte che incitano all'odio, ad esempio, le nostre normative specificano i contenuti proibite e anche le persone che non condividono queste normative possono rispettarle. Tuttavia, nell'ambito della disinformazione, non siamo in grado di tracciare confini definiti. Il mondo è in continua evoluzione e ciò che è vero un minuto può non esserlo in quello successivo. Le persone inoltre dispongono di diversi livelli di informazioni circa il mondo che li circonda e potrebbero ritenere un fatto vero quando in realtà non lo è. Una normativa che si limita a proibire la "disinformazione" non fornirebbe un avviso utile alle persone che usano i nostri servizi e non sarebbe applicabile, poiché non disponiamo di un accesso totale alle informazioni.
Al contrario, le nostre normative elencano varie categorie di disinformazione e cercano di fornire indicazioni chiare sul modo in cui trattiamo questo tipo di contenuti una volta rilevati. Per ciascuna categoria, l'approccio che adottiamo riflette il nostro tentativo di bilanciare i valori di libertà di espressione, sicurezza, dignità , autenticità e privacy.
Rimuoviamo i casi di disinformazione in grado di contribuire direttamente al rischio di violenza fisica imminente. Inoltre, rimuoviamo i contenuti che potrebbero contribuire direttamente all'ingerenza nel funzionamento dei processi politici. Nel determinare i contenuti che rientrano fra la disinformazione in tali categorie, collaboriamo con esperti indipendenti in possesso di competenze ed esperienza nella valutazione della veridicità dei contenuti e della possibilità che contribuiscano direttamente al rischio di violenza imminente. Ciò comprende, ad esempio, la collaborazione con organizzazioni per i diritti umani con una presenza in un Paese al fine di verificare l'attendibilità di voci su un conflitto civile.
Per tutti gli altri casi di disinformazione, ci concentriamo sul ridurne la diffusione o sulla creazione di un ambiente che promuova un dialogo costruttivo. Sappiamo che a volte i casi di disinformazione che sembrano innocui potrebbero, in uno specifico contesto, alimentare i rischi di violenza offline, comprese le minacce di violenza in grado di contribuire al rischio di morte, lesioni gravi o altre forme di violenza fisica. In alcuni casi, le persone condividono opinioni personali profondamente radicate che altri considerano false o condividono informazioni ritenute vere ma che altri considerano incomplete o fuorvianti.
Riconoscendo quanto sia diffusa questa forma di espressione, ci concentriamo sul fornire agli utenti informazioni utili in presenza di contenuti potenzialmente fuorvianti o in grado di creare confusione. Per conseguire questi obiettivi, al di fuori degli Stati Uniti, collaboriamo con organizzazioni di fact-checking di terzi in molte parti del mondo per controllare e valutare la veridicità della maggior parte dei contenuti virali sulle nostre piattaforme (maggiori informazioni sul nostro approccio negli Stati Uniti sono disponibili qui e qui). Il programma Note della community, che ha preso il via negli Stati Uniti, consente alle persone di aggiungere ulteriore contesto ai post potenzialmente fuorvianti o in grado di generare confusione pubblicati su Facebook, Instagram e Threads (vedi qui). Forniamo inoltre risorse per migliorare l'alfabetizzazione mediatica e digitale in modo che le persone possano decidere da sole i contenuti da leggere, condividere e di cui fidarsi. Le persone devono comunicare, tramite lo strumento di divulgazione tramite IA, se pubblicano contenuto organico con video o audio realistici creati o modificati digitalmente e possiamo applicare sanzioni qualora non lo facessero. Potremmo inoltre aggiungere un'etichetta a determinati contenuti, alterati o creati digitalmente, che rappresentano un rischio particolarmente elevato di fuorviare le persone su una questione di importanza pubblica.
Infine, vietiamo contenuti e comportamenti in altre aree che spesso si sovrappongono alla diffusione della disinformazione. Ad esempio, i nostri Standard della community proibiscono account falsi, frodi e comportamenti non autentici coordinati.
Continueremo ad aggiornare queste normative in base ai cambiamenti e all'evoluzione degli ambienti offline e online. Gli account che condividono in modo ripetuto i contenuti classificati come disinformazione elencati di seguito, oltre a vedere limitati i propri contenuti in base alla presente normativa, potrebbero subire una riduzione della distribuzione, limitazioni sulla capacità di fare pubblicità o la rimozione dalle nostre piattaforme. Ulteriori informazioni su ciò che accade quando Meta rimuove i contenuti sono disponibili qui.
Linee guida
Casi di disinformazione che rimuoviamo.
Questi sono alcuni esempi dei contenuti che contengono disinformazione che vengono rimossi:
I. Violenza fisica o violenza
Rimuoviamo i casi di disinformazione o le voci non verificabili ritenuti dai partner esperti in grado di contribuire direttamente al rischio di violenza fisica o violenza imminente per le persone. Per disinformazione intendiamo contenuti con affermazioni ritenute false da terzi autorevoli. Le voci non verificabili sono dichiarazioni in cui la fonte, secondo i partner esperti, è estremamente difficile o impossibile da individuare, per cui non esistono fonti autorevoli, in cui sono assenti elementi specifici per una smentita o troppo assurde o irragionevoli per risultare credibili.
Sappiamo che a volte i casi di disinformazione innocui potrebbero, in uno specifico contesto, alimentare i rischi di violenza offline, comprese le minacce di violenza in grado di contribuire al rischio di morte, lesioni gravi o altre forme di violenza fisica. Collaboriamo con una rete globale di organizzazioni non governative (ONG), no profit, umanitarie e internazionali esperte in queste dinamiche locali.
Nei paesi con un alto rischio di violenza sociale, collaboriamo in modo proattivo con dei partner locali per capire quali affermazioni false potrebbero contribuire direttamente a un rischio di violenza fisica imminente. Ci impegniamo quindi a identificare e rimuovere contenuti che promuovono tali affermazioni sulla nostra piattaforma. Ad esempio, in collaborazione con esperti locali, possiamo rimuovere contenuti multimediali decontestualizzati che dichiarano di rappresentare atti di violenza, vittime o autori di violenze, armi o equipaggiamento militare senza che sia vero.
II. Disinformazione dannosa per la salute
Ci rivolgiamo alle principali organizzazioni sanitarie per identificare la disinformazione sulla salute in grado di contribuire direttamente a danni imminenti alla salute e sicurezza pubblica. Ecco alcuni casi di disinformazione in materia di salute che rimuoviamo:
- Disinformazione sui vaccini. Rimuoviamo i casi di disinformazione principalmente in materia di vaccini quando le autorità sanitarie concludono che le informazioni sono false e in grado di contribuire direttamente a imminenti rifiuti del vaccino. Ciò comprende quanto segue:
- I vaccini provocano l'autismo (ad es.: "Il numero sempre più crescente di vaccini è causa di autismo in moltissimi bambini.")
- I vaccini provocano la sindrome della morte improvvisa del lattante (ad es.: "Sapevi che i vaccini provocano la SIDS?")
- I vaccini provocano la malattia da cui dovrebbero invece proteggere oppure espongono maggiormente la persona vaccinata alla malattia (ad es.: "Con il vaccino è più probabile che tu contragga la malattia, dal momento che il vaccino contiene il ceppo del virus. Fai attenzione!")
- I vaccini o i loro ingredienti sono letali, tossici, velenosi, pericolosi o dannosi (ad es.: "Certo, puoi vaccinarti, se non ti importa di introdurre un veleno nell'organismo.")
- L'immunità naturale è più sicura dell'immunità acquisita con il vaccino (ad es.: "È meglio essere contagiati dal virus che farsi vaccinare.")
- È pericoloso sottoporsi a più vaccini in un periodo di tempo breve, anche se le tempistiche sono consigliate dai medici (ad es. "Non fare mai più di un vaccino alla volta, è pericoloso. Non importa quello che dicono i dottori!")
- I vaccini non servono nel prevenire la malattia per cui sono stati creati. Tuttavia, per il vaccino contro il COVID-19, l'influenza e la malaria, non rimuoviamo le affermazioni secondo cui tali vaccini non servono a evitare che una persona contragga quei virus (ad es.: rimuoviamo: "Il vaccino anti-polio non fa niente per prevenire il contagio". Rimuoviamo: "I vaccini non fanno niente per prevenire i contagi". Consentiamo: "Il vaccino non elimina il rischio di contrarre il COVID-19, ecco perché è importante rispettare il distanziamento sociale e indossare la mascherina quando si è in mezzo ad altre persone.")
- Il morbillo non causa la morte (questa affermazione deve essere dettagliata o contestualizzata) (ad es.: "Non preoccuparti se prendi il morbillo, non è mortale.")
- La vitamina C è efficace nella prevenzione delle malattie tanto quanto i relativi vaccini esistenti
- Disinformazione sulla salute durante emergenze sanitarie pubbliche. Rimuoviamo i casi di disinformazione durante le emergenze sanitarie pubbliche quando le autorità sanitarie concludono che le informazioni sono false e in grado di alimentare il rischio imminente di violenza fisica, anche contribuendo al rischio che le persone contraggano o diffondano una malattia pericolosa o rifiutino il vaccino associato. Identifichiamo le emergenze sanitarie pubbliche in collaborazione con autorità sanitarie locali e globali.
- Contenuti che promuovono o sostengono cure miracolose per problemi di salute nocive. Ciò comprende trattamenti in cui l'applicazione consigliata, nel contesto della salute, è in grado di contribuire direttamente al rischio di lesioni gravi o morte e trattamenti privi di un legittimo uso sanitario (ad es.: candeggina, disinfettante, unguento nero indiano o soda caustica).
III. Interferenza elettorale o sui censimenti
Al fine di tutelare l'integrità dei processi elettorali e censuari, rimuoviamo i casi di disinformazione in grado di contribuire direttamente al rischio di ingerenza nella capacità delle persone di partecipare a tali processi. Ciò comprende quanto segue:
- Disinformazione circa date, luoghi, orari e metodi per la votazione o la registrazione degli elettori o la partecipazione al censimento
- Disinformazione in merito a chi può accedere al voto, ai requisiti di partecipazione al voto, al conteggio dei voti e a quali informazioni o materiali occorre fornire per poter votare
- Disinformazione in relazione al fatto che un candidato sia o meno in corsa
- Disinformazione circa chi può partecipare al censimento e a quali informazioni o materiali occorre fornire per poter partecipare
- Disinformazione circa il coinvolgimento del governo nel censimento, compreso, laddove applicabile, il fatto che le informazioni censuarie di una persona saranno condivise con un'altra agenzia governativa (non coinvolta nel censimento)
- Affermazioni false o non verificate secondo cui l'U.S. Immigration and Customs Enforcement (ICE) sia una sezione elettorale
- Affermazioni false esplicite secondo cui le persone contrarranno il COVID-19 (o altre malattie trasmissibili) in caso di partecipazione al processo elettorale
- False affermazioni sulle condizioni attuali in un seggio elettorale negli Stati Uniti che renderebbero impossibile votare, come verificato da un'autorità elettorale
Disponiamo di ulteriori normative volte a gestire le incitazioni alla violenza, la promozione delle partecipazioni illegali e gli appelli all'ingerenza coordinata nelle elezioni, riportate in altre sezioni dei nostri Standard della community.
Includiamo un'etichetta informativa per i contenuti seguenti:
Contenuti multimediali manipolati
I contenuti multimediali possono essere manipolati in svariati modi. In molti casi, queste modifiche sono innocue, ad esempio il taglio o l'abbreviazione di contenuti per motivi artistici o l'aggiunta di musica. In altri casi, la manipolazione non è evidente e potrebbe essere fuorviante.
- Contenuti alterati o creati digitalmente che possono fuorviare. Riguardo ai contenuti che non violano in altro modo gli Standard della community, potremmo inserire un'etichetta informativa davanti al contenuto – o rifiutare contenuti pubblicati come inserzioni – quando contiene immagini o video fotorealistici, o audio reali, che sono stati alterati o creati digitalmente e rappresentano un rischio particolarmente elevato di ingannare gli utenti su una questione di importanza pubblica.
Esperienze dell'utente
Scopri alcuni esempi di applicazione delle normative per le persone su Facebook, ad esempio nel caso di segnalazione di un contenuto che non dovrebbe essere su Facebook, violazione dei nostri Standard della community o visualizzazione di una schermata di avviso per un determinato contenuto.
Nota: ci impegniamo a migliorare continuamente, pertanto ciò che vedi qui potrebbe essere leggermente diverso da ciò che usiamo attualmente.
ESPERIENZA UTENTE
Segnalazioni
ESPERIENZA UTENTE
Comunicazioni successive alla segnalazione
ESPERIENZA UTENTE
Rimozione
ESPERIENZA UTENTE
Schermate di avviso
Applicazione delle normative
Applichiamo le stesse normative in tutto il mondo, per tutte le persone su Facebook.
Team addetti al controllo
Il nostro team globale, composto da oltre 15Â 000 responsabili del controllo dei contenuti, lavora ogni giorno per garantire la sicurezza delle persone su Facebook.
Coinvolgimento degli stakeholder
Esperti esterni, accademici, ONG e politici ci aiutano a definire gli Standard della community di Facebook.
Assistenza in caso di disinformazione
Scopri cosa puoi fare se noti contenuti su Facebook contrari ai nostri Standard della community.
Visita il nostro Centro assistenza