Hur Meta investerar i teknik
UPPDATERAD 19 JAN 2022
Här är några av de investeringar som vi har gjort i AI-teknik för att förbättra hur våra verktyg förstår innehåll:
- Vi har utvecklat den nya arkitekturen Linformer som analyserar innehåll på Facebook och Instagram i olika delar av världen.
- Vi har skapat det nya systemet Reinforced Integrity Optimizer som tränas upp med onlinesignaler för att förbättra vår förmåga att upptäcka hatretorik.
- Vi har förbättrat bildmatchningsverktyget SimSearchNet som hjälper vår teknik att upptäcka subtila skillnader i innehåll så att vi kan vidta åtgärder mot felaktig information.
- Vi har infört språkverktygen XLM och XLM-R, vilka hjälper oss att skapa klassificeringsverktyg som förstår samma koncept på flera olika språk. Det gör att när tekniken lär in något på ett språk så kan den förbättra sina prestanda på andra. Det är särskilt användbart för språk som är mindre vanliga på internet.
- Vi har skapat ett helt system för enhetsanalys som analyserar innehåll och hjälper oss att fastställa om det innehåller hatretorik.
Leder AI-branschen genom ett öppet och samarbetsinriktat arbete
Utmaningarna med skadligt innehåll påverkar hela teknikbranschen och samhället i stort. Därför har vår teknik öppen källkod så att andra kan använda den. Vi tror att ett öppet och samarbetsinriktat AI-community kan främja forskning och utveckling så att vi kan skapa nya sätt att upptäcka och förhindra skadligt innehåll och bidra till att få människor att känna sig trygga och säkra.
Här är några typer av teknik som vi har gett öppen källkod de senaste åren, samt två branschtävlingar vi höll i:
XLM-R
XLM-R är en maskininlärningsmodell som tränas på ett språk och sedan används för andra språk utan ytterligare träningsdata. Människor publicerar innehåll på fler än 160 språk på Metas tekniker och tack vare XLM-R kan vi använda en modell för många språk istället för en modell per språk. Det gör att vi enklare kan identifiera hatretorik och annat innehåll som bryter mot policyer på en mängd olika språk, samt att vi kan lansera produkter på flera språk samtidigt. Vi har gjort våra modeller och vår kod tillgängliga med öppen källkod så att forskningscommunityn kan förbättra resultaten för sina flerspråkiga modeller.
Mål: att ge människor bästa möjliga upplevelse på våra plattformar, oavsett vilket språk de talar.Linformer
Linformer är en transformeringsarkitektur som analyserar miljarder olika innehåll på Facebook och Instagram i olika områden i världen. Linformer hjälper till att upptäcka hatretorik och innehåll som uppmanar till våld. Vi har publicerat vår forskning och gett Linformer öppen källkod så att andra forskare och tekniker kan förbättra sina modeller.
Mål: att skapa en ny AI-modell som lär sig av text, bilder och tal samt effektivt upptäcker hatretorik, människohandel, mobbning och andra former av skadligt innehåll.Deepfakes Detection Challenge
Vi skapade en tävling ihop med Microsoft, Partnership on AI och akademiker från flera olika universitet i jakt på en teknik som bättre upptäcker när AI har använts till att modifiera en video på ett sätt som vilseleder tittarna. Vi bidrog till Deepfakes Detection Challenge med att ta fram en realistisk datauppsättning, vilket saknades i branschen, för att lättare upptäcka deepfakes.
Mål: att sporra branschen att skapa nya sätt att upptäcka och förhindra att medieobjekt som har manipulerats med AI används på ett sätt som vilseleder människor.Hateful Memes Challenge
Vi skapade en tävling ihop med Getty Images och DrivenData för att snabba på forskningen gällande problemet med att upptäcka hatretorik bestående av både bild och text. Vårt bidrag till Hateful Memes Challenge var att skapa en unik datauppsättning med fler än 10 000 exempel som forskare enkelt kunde använda i sitt arbete.
Mål: att sporra branschen att skapa nya tillvägagångssätt och metoder för att upptäcka multimodalt hatiskt innehåll.