Slik investerer Meta i teknologi

OPPDATERT 19. JAN. 2022
Vi investerer i kunstig intelligens for å forbedre vår evne til å oppdage innhold som bryter med retningslinjene og holde folk trygge. Enten de gjøres for å forbedre et eksisterende system eller innføre et nytt, hjelper disse investeringene oss til å automatisere avgjørelser om innhold, slik at vi kan reagere raskere og redusere feil.
Her er noen av investeringene vi har gjort i KI-teknologi for å forbedre hvordan verktøyene våre forstår innhold:
  • Vi utviklet en ny arkitektur som heter Linformer, som analyserer innhold pÃ¥ Facebook og Instagram i ulike regioner jorda rundt.
  • Vi bygde et nytt system som heter Reinforced Integrity Optimizer, som lærer fra signaler pÃ¥ nettet for Ã¥ forbedre evnen vÃ¥r til Ã¥ oppdage hatefulle ytringer.
  • Vi forbedret et verktøy for Ã¥ matche bilder, kalt SimSearchNet, som hjelper teknologien vÃ¥r med Ã¥ oppdage subtile forskjeller i innhold, slik at vi kan iverksette tiltak mot feilinformasjon.
  • Vi innførte sprÃ¥kverktøyer som heter XLM og XLM-R, som hjelper oss med Ã¥ bygge klassifiseringer som forstÃ¥r de samme konseptene pÃ¥ flere sprÃ¥k. Dette betyr at nÃ¥r teknologien vÃ¥r kan lære pÃ¥ ett sprÃ¥k, kan den forbedre ytelsen sin for andre, hvilket er spesielt nyttig for sprÃ¥k som ikke er sÃ¥ vanlige pÃ¥ Internett.
  • Vi har bygd opp et fullstendig system for forstÃ¥else av enheter, som analyserer innhold for Ã¥ bidra til Ã¥ fastslÃ¥ hvorvidt det inneholder hatefulle ytringer.
Å lede KI-bransjen fremover med åpne, felles tiltak
Utfordringene ved skadelig innhold påvirker hele teknologibransjen og samfunnet i sin helhet. Derfor har teknologien vår åpen kildekode, slik at den gjøres tilgjengelig for bruk av andre. Vi mener at en åpen og samarbeidsorientert holdning til KI-fellesskapet vil anspore til forskning og utvikling, skape nye måter å oppdage og forhindre skadelig innhold på og bidra til å holde folk trygge.
Her er noen teknologielementer der vi de siste årene har brukt åpen kildekode, inkludert to bransjekonkurranser vi ledet:
XLM-R er en modell for maskinlæring som er trenet i ett språk, og som deretter brukes med andre språk uten ytterligere treningsdata. Folk publiserer innhold på mer enn 160 språk på Meta-teknologier, og XLM-R gir oss muligheten til å bruke én modell for mange språk, i stedet for én modell per språk. Dette hjelper oss med å kunne identifisere hatefulle ytringer og annet krenkende innhold på en enklere måte på tvers av et bredt spekter av språk, og med å lansere produkter på flere språk samtidig. Vi ga modellene og koden vår åpen kildekode for å gi forskningsfellesskapet muligheten til å forbedre ytelsen av de flerspråklige modellene deres.
Goal: For å gi folk en best mulig opplevelse på plattformene våre, uansett hvilket språk de snakker.
Linformer er en transformer-arkitektur som analyserer milliarder av innholdselementer på Facebook og Instagram i ulike regioner jorda rundt. Linformer hjelper til med å oppdage hatefulle ytringer og innhold som oppfordrer til vold. Vi publiserte forskningen vår og ga Linformer åpen kildekode for å gjøre det mulig for andre forskere og utviklere å forbedre modellene sine.
Goal: For å opprette en ny KI-modell som lærer av tekst, bilder og tale og oppdager hatefulle ytringer, menneskehandel, mobbing og andre typer skadelig innhold på en effektiv måte.
Vi arrangerte en konkurranse med Microsoft, Partnership on AI og akademikere fra flere teknologiske universiteter for å se hvilken teknologi som best oppdager når KI har blitt brukt til å endre en video for å villede seerne. Bidraget vårt til denne pfake-detection-challenge/" target="_blank">Deepfakes Detection Challenge-konkurransen var å få utarbeidet et realistisk datasett, som bransjen manglet, for å hjelpe med å oppdage deepfakes.
Goal: For å anspore bransjen til å skape nye metoder for å oppdage medier som er manipulerte med KI og forhindre at de brukes til å villede folk.
Vi arrangerte en konkurranse med Getty Images og DrivenData for å akselerere forskning på problemet med å oppdage hatefulle ytringer som kombinerer bilder og tekst. Vårt bidrag til Hateful Memes Challenge-konkurransen var å opprette et unikt datasett med over 10 000 eksempler, slik at forskerne enkelt kunne bruke dem i arbeidet sitt.
Goal: For å anspore bransjen til å komme opp med nye tilnærminger og metoder for å oppdage multimodale hatefulle ytringer.