Metan teknologiat havaitsevat ja poistavat oma-aloitteisesti suurimman osan loukkaavasta sisällöstä, ennen kuin kukaan ilmiantaa sen. Kun joku julkaisee sisältöä Facebookissa, Instagramissa, Messengerissä tai Threadsissa, teknologiamme tarkistavat, onko se yhteisönormien vastaista. Tunnistaminen on suurimmassa osassa tapauksista yksinkertaista. Julkaisu joko on selkeästi käytäntöjemme vastainen tai ei.
Joskus tunnistaminen on taas vaikeampaa. Julkaisun asenne saattaa olla epäselvä, kieli saattaa olla erityisen monimutkaista tai sen kuvat saattavat olla liian kontekstisidonnaisia. Tällaisissa tapauksissa ihmiset tekevät lisätarkistuksen.
Tekijät, jotka vaikuttavat ihmisten tekemien tarkistusten priorisoimiseen
Kun päätämme, mitä sisältöä ihmistarkistajatiimien tulisi tarkistaa ensimmäisenä, otamme huomioon kolme päätekijää:
VAKAVUUS
Kuinka todennäköisesti sisältö voi aiheuttaa vahinkoa sekä verkossa että tämän ulkopuolella?
VIRAALISUUS
Kuinka nopeasti sisältöä jaetaan?
RIKKOMUKSEN TODENNÄKÖISYYS
Kuinka todennäköisesti kyseinen sisältö itse asiassa rikkoo käytäntöjämme?
Koska haluamme ehkäistä vahinkoja mahdollisimman paljon, tarkistusjärjestelmämme priorisoi tekniikan avulla erittäin vakavaa sisältöä, joka voi aiheuttaa todennäköisesti vahinkoa verkon ulkopuolella, ja nopeasti leviävää viraalisisältöä.
Ihmistarkistajatiimit hyödyntävät tiettyjen käytäntöjen osa-alueiden asiantuntemustaan, kun he tekevät vaikeita ratkaisuja asioista, joissa on usein paljon eri nyansseja. Joka kerta, kun tarkistaja tekee ratkaisun, koulutamme kyseisten tietojen avulla tekniikkaamme. Tekniikkamme kehittyy ajan myötä, kun ratkaisuja on tehty monta miljoonaa. Näin voimme poistaa enemmän loukkaavaa sisältöä.
Teknologiamme auttaa ihmistarkistajatiimejä tekemään sitä, mitä nämä osaavat parhaiten
Tekniikkamme kehittyy monien koneoppimismallien tavoin ajan myötä, kun se saa enemmän esimerkkejä loukkaavasta sisällöstä. Näin ihmistarkistajatiimit ovat pystyneet keskittymään paremmin vakavaan, viraaliin, eri nyansseja sisältävään, uudenlaiseen ja monimutkaiseen sisältöön. Yleensä ihmiset tekevät parempia ratkaisuja tällaisesta sisällöstä kuin teknologia.
Yleisiä kysymyksiä sisällön tarkistuksen priorisoinnista
Miten toimeenpanon priorisointi on muuttunut ajan myötä?
Aikaisemmin ihmistarkistajatiimit käyttivät suurimman osan ajastaan käyttäjien ilmiantaman sisällön tarkistamiseen. He käyttivät siksi usein liian paljon aikaa sisältöön, joka oli vakavuudeltaan vähäistä tai joka ei selvästi ollut loukkaavaa. Vakavin ja todennäköisimmin vahinkoa aiheuttava sisältö ei siis saanut riittävästi huomiota. Monet ihmisten tekemät päätökset eivät myöskään riittäneet toimeenpanoteknologiamme kehittämiseen.
Nykyisessä priorisointia koskevassa lähestymistavassamme on huomioitu nämä ongelmat, minkä ansiosta voimme tarkistaa ensimmäisenä sisällön, joka aiheuttaa todennäköisimmin vahinkoa, ja kehittää teknologiaamme nopeammin.
Tarkistavatko ihmistarkistajatiimit kaikki käyttäjien ilmiannot?
Eivät välttämättä. Sekä ihmistarkistajatiimeillä että teknologialla on oma roolinsa käyttäjien ilmiantojen tarkistuksessa. Jos teknologia pystyy analysoimaan sisällön, se puuttuu tarvittaessa automaattisesti kyseiseen sisältöön.
Kuinka varmistatte, että ihmisten ratkaisut eivät vääristä teknologiaamme?
Pyrimme puuttumaan oikeudenmukaisuus- ja osallisuusongelmiin, jotka liittyvät tekoälyn käyttöönottoon Meta-teknologioissa. Olemme siksi perustaneet vastuullisesta tekoälystä vastaavan omistautuneen ja monialaisen tiimin, joka koostuu etiikan tutkijoista, valtio- ja yhteiskuntatieteilijöistä, politiikan asiantuntijoista, tekoälyn tutkijoista ja insinööreistä. Tiimin yleisenä tavoitteena on kehittää ohjeita, työkaluja ja prosesseja, joiden avulla se voi puuttua tekoälyn vastuullisuusongelmiin. Se auttaa myös varmistamaan, että kyseiset järjestelmälliset resurssit ovat laajasti saatavilla Metassa.