In che modo Meta investe nella tecnologia

AGGIORNATO 19 GEN 2022
Investiamo nell'intelligenza artificiale per migliorare la nostra capacità di rilevare contenuti in violazione e per tutelare la sicurezza degli utenti. Tali investimenti possono essere finalizzati a migliorare sistemi esistenti o a introdurne di nuovi. L'obiettivo di fondo è quello di automatizzare sempre di più le decisioni relative ai contenuti in modo da poter rispondere più velocemente riducendo gli errori.
Ecco alcune delle iniziative in materia di tecnologia IA in cui abbiamo investito per far sì che i nostri strumenti capiscano meglio i contenuti:
  • Abbiamo sviluppato una nuova architettura chiamata Linformer, che analizza i contenuti su Facebook e Instagram in diverse aree geografiche a livello globale.
  • Abbiamo creato un nuovo sistema denominato Reinforced Integrity Optimizer, che migliora la nostra capacità di rilevare discorsi di incitamento all'odio grazie ai segnali online.
  • Abbiamo apportato miglioramenti a uno strumento di corrispondenza delle immagini chiamato SimSearchNet, che aiuta la nostra tecnologia a rilevare differenze sottili nei contenuti permettendoci di prendere provvedimenti nei casi di disinformazione.
  • Abbiamo incorporato strumenti linguistici chiamati XLM e XLM-R, che facilitano il processo di sviluppo dei classificatori grazie ai quali è possibile comprendere lo stesso concetto in più lingue. In questo modo, ciò che la nostra tecnologia apprende in una lingua può essere utilizzato per migliorare le prestazioni anche nelle altre. Questo meccanismo è particolarmente utile per le lingue meno comuni su Internet.
  • Abbiamo creato un sistema di comprensione unificato, che analizza i contenuti per aiutarci a stabilire quali contengono discorsi di incitamento all'odio.
All'avanguardia nel settore dell'IA grazie a iniziative aperte e collaborative
Le sfide poste dai contenuti pericolosi hanno ripercussioni sull'intero settore tecnologico e sulla società in generale. Per tale ragione, la nostra tecnologia è open source e a disposizione di tutti. Siamo convinti che con un approccio aperto e incentrato sulla collaborazione all'interno della community IA sia possibile promuovere la ricerca e lo sviluppo, creare nuovi modi di rilevare o prevenire i contenuti pericolosi e tutelare la sicurezza degli utenti.
Ecco alcuni esempi di tecnologie che abbiamo reso open source negli ultimi anni, tra cui 2 concorsi del settore organizzati da Facebook:
XLM-R è un modello di apprendimento automatico allenato in una lingua, utilizzabile in lingue diverse senza che sia necessario inserire dati aggiuntivi. Gli utenti delle tecnologie di Meta pubblicano i contenuti in più di 160 lingue diverse e grazie a XLM-R è possibile utilizzare lo stesso modello per molte lingue diverse. Questo strumento permette di identificare con meno difficoltà i discorsi di incitamento all'odio o altri contenuti in violazione e di lanciare contemporaneamente i prodotti in lingue diverse. Abbiamo reso i nostri modelli e il nostro codice open source per permettere alla community di ricercatori di migliorare le prestazioni dei modelli multilingua.
Obiettivo: dare alle persone la migliore esperienza possibile sulle nostre piattaforme, a prescindere dalla lingua che parlano.
Linformer è un'architettura transformer che analizza miliardi di contenuti su Facebook e Instagram in diverse aree geografiche a livello globale. Linformer aiuta a rilevare i contenuti di incitamento all'odio e alla violenza. Abbiamo pubblicato le nostre ricerche e reso open source il codice Linformer per permettere ai ricercatori e agli ingegneri di migliorare i propri modelli.
Obiettivo: creare un nuovo modello di IA che, oltre ad apprendere dal testo, dalle immagini e dai discorsi, sapesse rilevare in modo efficiente i discorsi di incitamento all'odio e contenuti pericolosi come quelli relativi alla tratta di esseri umani o ad atti di bullismo.
Abbiamo organizzato questo concorso insieme a Microsoft, ai nostri partner in materia di IA e a studiosi provenienti da diverse università per premiare la tecnologia più efficace nel rilevamento delle modifiche apportate ai video mediante l'IA con il fine di fuorviare gli utenti. Il nostro contributo alla Deepfakes Detection Challenge è stato quello di richiedere un set di dati realistico, non ancora disponibile in questo settore, con cui rilevare i deep fake.
Obiettivo: incoraggiare il settore a sviluppare nuovi modi di individuare e prevenire la manipolazione dei contenuti multimediali mediante l'IA con il fine di fuorviare gli utenti.
Abbiamo ideato questo concorso con Getty Images e DrivenData per accelerare la ricerca sul tema del rilevamento dei discorsi di incitamento all'odio in contenuti che combinano immagini e testo. Il nostro contributo alla Hateful Memes Challenge è stato quello di creare un set di dati unico basato su più di 10 000 esempi facilmente utilizzabile dai ricercatori nelle loro attività.
Obiettivo: incoraggiare il settore a creare nuovi approcci e metodi per identificare i discorsi di incitamento all'odio multimodale.