Näin Meta investoi teknologiaan
PÄIVITETTY 19.1.2022
Tässä on muutamia tekoälyteknologiaan tekemiämme investointeja, joiden avulla parannamme sitä, miten työkalumme ymmärtävät sisältöä:
- Olemme kehittäneet uuden, Linformer-nimisen arkkitehtuurin, joka analysoi Facebook- ja Instagram-sisältöä eri puolilla maailmaa.
- Olemme kehittäneet uuden järjestelmän nimeltä Reinforced Integrity Optimizer, joka oppii verkkosignaaleista ja parantaa valmiuksiamme havaita vihapuhetta.
- Olemme parantaneet SimSearchNet-kuvantunnistustyökalua, joka auttaa teknologiaamme havaitsemaan pieniä eroavaisuuksia sisällössä, jotta voimme puuttua misinformaatioon.
- Olemme ottaneet käyttöön kielityökalut XLM ja XLM-R. Ne auttavat meitä luomaan luokittelijoita, jotka ymmärtävät saman käsitteen useilla eri kielillä. Se tarkoittaa, että kun teknologiamme voi oppia jollain kielellä, se voi parantaa toimivuuttaan myös muilla kielillä. Tämä on erityisen hyödyllistä sellaisten kielten tapauksessa, jotka eivät ole kovin yleisiä internetissä.
- Olemme kehittäneet kokonaisuuksia hahmottavan järjestelmän, joka analysoi sisältöä ja auttaa määrittämään, sisältääkö se vihapuhetta.
Tekoälyalan edistäminen avoimella yhteistyöllä
Haitallisen sisällön haasteet vaikuttavat koko teknologiateollisuuteen ja laajemmin tarkasteltuna koko yhteiskuntaan. Siispä teemme teknologiamme lähdekoodista avointa, jotta muut voivat käyttää sitä. Katsomme, että olemalla avoin tekoäly-yhteisöä kohtaan ja toimimalla sen kanssa yhteistyössä pystymme edistämään tutkimusta ja kehitystä, luomaan uusia tapoja havaita ja estää haitallista sisältöä sekä pitämään yllä käyttäjien turvallisuutta.
Tässä on muutama teknologia, joiden lähdekoodista olemme tehneet viime vuosien aikana avointa, mukaan lukien kaksi johtamaamme alan kilpailua:
XLM-R
XLM-R on koneoppimismalli, joka on koulutettu yhdellä kielellä ja jota sitten käytetään muilla kielillä ilman muuta koulutusdataa. Koska Meta-teknologioissa julkaistaan sisältöä yli 160 kielellä, XLM-R:n avulla voimme käyttää yhtä mallia monille kielille sen sijaan, että käyttäisimme vain yhtä mallia yhtä kieltä kohden. Näin voimme tunnistaa vihapuheen ja muun sääntöjen vastaisen sisällön helpommin monilla eri kielillä ja julkaista tuotteita useilla kielillä samanaikaisesti. Olemme tehneet malliemme ja koodiemme lähdekoodista avointa, jotta tutkimusyhteisö voi parantaa monikielisten mallien toimivuutta.
Tavoite: antaa käyttäjille paras mahdollinen kokemus alustoillamme riippumatta kielestä, jota he puhuvatLinformer
Linformer on muuntaja-arkkitehtuuri, joka analysoi miljardeja Facebookissa ja Instagramissa olevia sisältöjä eri puolilla maailmaa. Linformer auttaa havaitsemaan vihapuhetta ja sisältöä, jossa yllytetään väkivaltaan. Olemme julkaisseet tutkimuksemme ja tehneet Linformerin lähdekoodista avointa, jotta muut tutkijat ja insinöörit voivat kehittää mallejaan.
Tavoite: luoda uusi tekoälymallin, joka oppii tekstistä, kuvista ja puheesta ja joka havaitsee tehokkaasti vihapuhetta, ihmiskauppaa, kiusaamista ja muita haitallisen sisällön muotojaSyväväärennösten havaitsemishaaste
Olemme luoneet Microsoftin, Partnership on AI:n ja useiden korkeakoulujen tutkijoiden kanssa kilpailun. Sillä pyrimme kehittämään teknologiaa, joka havaitsee paremmin, kun katsojia on pyritty huijaamaan muuntelemalla videota tekoälyn avulla. Osallistuimme syväväärennösten havaitsemishaasteeseen tilaamalla alalta puuttuneen realistisen tietoaineiston, jotta voimme auttaa havaitsemaan paremmin syväväärennöksiä.
Tavoite: kannustaa yhteisöä luomaan uusia tapoja havaita ja ehkäistä tekoälyllä manipuloituja mediasisältöjä, joita käytetään käyttäjien harhaanjohtamiseenVihameemihaaste
Olemme luoneet Getty Images- ja DrivenData-palveluiden kanssa kilpailun. Sen avulla pyrimme nopeuttamaan vihapuheen havaitsemiseen liittyvää tutkimusta, jossa käytetään yhdessä sekä kuvia että tekstejä. Osallistuimme vihameemihaasteeseen luomalla ainutlaatuisen, yli 10 000 esimerkkiä käsittävän tietoaineiston, jota tutkijat voisivat käyttää helposti työssään.
Tavoite: kannustaa alaa luomaan uusia lähestymistapoja ja menetelmiä multimodaalisen vihapuheen havaitsemiseksi