Hvordan Meta trener opp teknologi

OPPDATERT 19. JAN. 2022
Noen ganger er meningen av et innholdselement øyeblikkelig åpenbar for en person, men ikke så lett å tolke for teknologi. For å holde folk trygge må Meta trene opp kunstig intelligens i hvordan man oppdager innlegg som bryter med retningslinjene.
For eksempel kombinerer følgende innhold tekst og bilder. To av bildene er harmløse, de andre 2 kan være ondskapsfulle.
how we train
Uten riktig trening, har det meste av KI vanskeligheter med å skjelne mellom slike forskjeller. Den vil enten lese teksten og fastslå den bokstavelige meningen av ordene, eller den ser på bilder for å fastslå den generelle meningen av bildets motiv. Mennesker vil på den annen side instinktivt pare teksten og bildet sammen for å forstå innholdet.
Én måte vi håndterer dette på er ved å trene opp teknologien vår til å først se på alle komponentene av et innlegg, og først etterpå fastslå den virkelige meningen. Dette kan være til stor hjelp for at KI mer nøyaktig skal kunne oppdage hva en person ser i det samme innlegget.
Vi bruker også et system som guider KI til å lære direkte fra millioner av aktuelle innholdselementer, og som hjelper med å velge treningsdata i henhold til målene våre. Dette er annerledes enn typiske KI-systemer, som benytter seg av faste data for trening. Bruk av denne metoden hjelper oss til å bedre beskytte folk fra hatefulle ytringer og innhold som oppfordrer til vold.
Vi har fortsatt arbeid igjen å gjøre, men denne treningen vil hjelpe teknologien vår til å fortsatt forbedre seg og bedre forstå den virkelige meningen av multimodalt innhold.