In che modo Meta addestra la propria tecnologia

AGGIORNATO 19 GEN 2022
Alcune volte, il significato di un contenuto è ovvio per una persona ma meno chiaro per la tecnologia. Per tutelare gli utenti, Meta deve addestrare i sistemi di intelligenza artificiale in modo che possano individuare i post in violazione.
Ad esempio, il contenuto seguente è una combinazione di testo e immagini di cui 2 sono innocue e 2 potenzialmente malevole.
how we train
Senza un adeguato addestramento, la maggior parte della tecnologia IA faticherebbe a fare queste distinzioni. Tenderebbe a leggere il testo e a stabilire il significato letterale delle parole o a guardare le immagini per risalire al significato generale del soggetto della foto. Al contrario, le persone associano istintivamente il testo e l'immagine per comprendere il contenuto.
Uno dei modi in cui cerchiamo di risolvere tale problema è addestrando la nostra tecnologia ad analizzare prima tutte le componenti di un post e a stabilirne il significato effettivo solo in un secondo momento. Questo meccanismo può aiutare in modo notevole l'IA a capire con maggior precisione in che modo un determinato post viene percepito dagli utenti.
Inoltre, il sistema che utilizziamo fa in modo che l'IA apprenda direttamente da milioni di contenuti pubblicati e che ci aiuti a individuare dati utili per il suo addestramento. Si tratta di un sistema diverso da quelli di IA tradizionali che per migliorare si affidano a dati prestabiliti. Questo metodo ci aiuta a tutelare gli utenti dai contenuti che incitano all'odio e alla violenza.
Il lavoro da portare a termine è ancora molto, ma questo tipo di addestramento permette alla nostra tecnologia di migliorare ogni giorno e di capire con sempre maggiore chiarezza il significato effettivo dei contenuti multimodali.