Sådan investerer Meta i teknologi
OPDATERET 19. JAN. 2022
Her er nogle af de investeringer, vi har foretaget i AI-teknologi for at forbedre, måden vores værktøjer forstår indhold på:
- Vi har udviklet en ny arkitektur ved navn Linformer, som analyserer indhold i Facebook-appen og på Instagram i forskellige regioner verden over.
- Vi har bygget et nyt system, der hedder Reinforced Integrity Optimizer, som lærer ud fra onlinesignaler for at forbedre vores evne til at registrere hadefuld retorik.
- Vi har forbedret et billedsøgende værktøj, der hedder SimSearchNet, som hjælper vores teknologi med at registrere små forskelle i indhold, så vi kan handle, når vi finder forkerte oplysninger.
- Vi har inkorporeret sprogværktøjer ved navn XLM og XLM-R, som hjælper os med at opbygge klassifikatorer, der forstår det samme koncept på flere sprog. Det betyder, at når vores teknologi kan lære på ét sprog, kan den opnå øget effektivitet på andre, hvilket er særlig nyttigt for sprog, der er mindre udbredte på internettet.
- Vi har bygget et system, som forstår hele enheder, og som analyserer indhold for nemmere at afgøre, om det gør brug af hadefuld retorik.
Spydspids for AI-branchen med åben og samarbejdende indsats
Udfordringerne ved skadeligt indhold påvirker hele teknologibranchen og samfundet som helhed. Derfor er vores teknologi med åben kildekode, så den er tilgængelig for andre. Vi mener, at åbenhed og samarbejde med AI-fællesskabet vil anspore til forskning og udvikling, skabe nye måder til at opdage og forebygge skadeligt indhold og hjælpe med at beskytte folk.
Her er nogle af vores teknologier med åben kildekode fra de seneste år, inklusive 2 af branchens konkurrencer, som vi førte an i:
XLM-R
XLM-R er en maskinlæringsmodel, der er trænet på ét sprog og derefter bruges sammen med andre sprog uden yderligere træningsdata. Folk slår indhold op på mere end 160 sprog på Meta-teknologier, og dermed giver XLM-R os mulighed for at bruge én model til mange sprog i stedet for én model pr. sprog. Dette hjælper os med lettere at identificere hadefuld retorik og andet krænkende indhold på tværs af en bred vifte af sprog samt lancere produkter på flere sprog på én gang. Vores modeller og koder er åbne, så forskningsmiljøet kan øge deres flersprogede modellers ydeevne.
Mål: At give folk den bedste oplevelse på vores platforme, uanset hvilket sprog de taler.Linformer
Linformer er en transformerarkitektur, som analyserer enorme mængder indhold på Facebook og Instagram i forskellige regioner verden over. Linformer hjælper med at opdage hadefuld retorik og indhold, der opfordrer til vold. Vi udgav vores forskning og gav Linformer en åben kildekode, så andre forskere og ingeniører kunne forbedre deres modeller.
Mål: At oprette en ny AI-model, der lærer af tekst, billeder og tale og effektivt detekterer hadefuld retorik, menneskehandel, mobning og andre former for skadeligt indhold.Deepfakes Detection-udfordringen
Vi oprettede en konkurrence med Microsoft, Partnership on AI og akademikere fra flere universiteter om teknologi, der bedre detekterer, når AI er blevet brugt til at ændre en video for at vildlede seerne. Vores bidrag til Deepfakes Detection Challenge var et realistisk datasæt, som branchen manglede, som skulle hjælpe med at detektere deepfake-videoer.
Mål: At anspore branchen til at skabe nye måder til at detektere og forebygge, at medier, som er manipuleret med AI, bruges til at vildlede folk.Hateful Memes-udfordringen
Vi oprettede en konkurrence med Getty Images og DrivenData for at fremskynde forskning i problemet med detektering af hadefuld retorik, der kombinerer billeder og tekst. Vores bidrag til Hateful Memes-udfordringen var at oprette et unikt datasæt med mere end 10.000 eksempler, så forskere nemt kunne bruge dem i deres arbejde.
Mål: At anspore branchen til at skabe nye tilgange og metoder til at detektere multimodal hadefuld retorik.