Hur Meta investerar i teknik

UPPDATERAD 19 JAN 2022
Vi investerar i artificiell intelligens för att förbättra vår förmåga att upptäcka innehåll som bryter mot policyerna och så att användare kan känna sig trygga och säkra. Oavsett om det handlar om att förbättra ett befintligt system eller att införa ett nytt hjälper dessa investeringar oss att automatisera beslutsfattandet kring innehåll så att vi kan agera snabbare och minska antalet misstag.
Här är några av de investeringar som vi har gjort i AI-teknik för att förbättra hur våra verktyg förstår innehåll:
  • Vi har utvecklat den nya arkitekturen Linformer som analyserar innehÃ¥ll pÃ¥ Facebook och Instagram i olika delar av världen.
  • Vi har skapat det nya systemet Reinforced Integrity Optimizer som tränas upp med onlinesignaler för att förbättra vÃ¥r förmÃ¥ga att upptäcka hatretorik.
  • Vi har förbättrat bildmatchningsverktyget SimSearchNet som hjälper vÃ¥r teknik att upptäcka subtila skillnader i innehÃ¥ll sÃ¥ att vi kan vidta Ã¥tgärder mot felaktig information.
  • Vi har infört sprÃ¥kverktygen XLM och XLM-R, vilka hjälper oss att skapa klassificeringsverktyg som förstÃ¥r samma koncept pÃ¥ flera olika sprÃ¥k. Det gör att när tekniken lär in nÃ¥got pÃ¥ ett sprÃ¥k sÃ¥ kan den förbättra sina prestanda pÃ¥ andra. Det är särskilt användbart för sprÃ¥k som är mindre vanliga pÃ¥ internet.
  • Vi har skapat ett helt system för enhetsanalys som analyserar innehÃ¥ll och hjälper oss att fastställa om det innehÃ¥ller hatretorik.
Leder AI-branschen genom ett öppet och samarbetsinriktat arbete
Utmaningarna med skadligt innehåll påverkar hela teknikbranschen och samhället i stort. Därför har vår teknik öppen källkod så att andra kan använda den. Vi tror att ett öppet och samarbetsinriktat AI-community kan främja forskning och utveckling så att vi kan skapa nya sätt att upptäcka och förhindra skadligt innehåll och bidra till att få människor att känna sig trygga och säkra.
Här är några typer av teknik som vi har gett öppen källkod de senaste åren, samt två branschtävlingar vi höll i:
XLM-R är en maskininlärningsmodell som tränas på ett språk och sedan används för andra språk utan ytterligare träningsdata. Människor publicerar innehåll på fler än 160 språk på Metas tekniker och tack vare XLM-R kan vi använda en modell för många språk istället för en modell per språk. Det gör att vi enklare kan identifiera hatretorik och annat innehåll som bryter mot policyer på en mängd olika språk, samt att vi kan lansera produkter på flera språk samtidigt. Vi har gjort våra modeller och vår kod tillgängliga med öppen källkod så att forskningscommunityn kan förbättra resultaten för sina flerspråkiga modeller.
Mål: att ge människor bästa möjliga upplevelse på våra plattformar, oavsett vilket språk de talar.
Linformer är en transformeringsarkitektur som analyserar miljarder olika innehåll på Facebook och Instagram i olika områden i världen. Linformer hjälper till att upptäcka hatretorik och innehåll som uppmanar till våld. Vi har publicerat vår forskning och gett Linformer öppen källkod så att andra forskare och tekniker kan förbättra sina modeller.
Mål: att skapa en ny AI-modell som lär sig av text, bilder och tal samt effektivt upptäcker hatretorik, människohandel, mobbning och andra former av skadligt innehåll.
Vi skapade en tävling ihop med Microsoft, Partnership on AI och akademiker från flera olika universitet i jakt på en teknik som bättre upptäcker när AI har använts till att modifiera en video på ett sätt som vilseleder tittarna. Vi bidrog till Deepfakes Detection Challenge med att ta fram en realistisk datauppsättning, vilket saknades i branschen, för att lättare upptäcka deepfakes.
Mål: att sporra branschen att skapa nya sätt att upptäcka och förhindra att medieobjekt som har manipulerats med AI används på ett sätt som vilseleder människor.
Vi skapade en tävling ihop med Getty Images och DrivenData för att snabba på forskningen gällande problemet med att upptäcka hatretorik bestående av både bild och text. Vårt bidrag till Hateful Memes Challenge var att skapa en unik datauppsättning med fler än 10 000 exempel som forskare enkelt kunde använda i sitt arbete.
Mål: att sporra branschen att skapa nya tillvägagångssätt och metoder för att upptäcka multimodalt hatiskt innehåll.