De AI-branche voorwaarts leiden met open, gezamenlijke inspanningen
De uitdagingen die schadelijke content met zich meebrengt, zijn van invloed op de gehele technologiebranche en op de maatschappij in het algemeen. Daarom stellen we onze technologie openbaar beschikbaar zodat anderen deze kunnen gebruiken. We zijn van mening dat onderzoek en ontwikkeling zullen worden gestimuleerd door open te zijn naar en samen te werken met de AI-community, zodat er nieuwe manieren worden gevonden om schadelijke content te detecteren en voorkomen en mensen veilig te helpen houden.
Dit zijn een aantal van de technologieën die we in recente jaren openbaar beschikbaar hebben gesteld, waaronder 2 branchewedstrijden die we hebben georganiseerd:
XLM-R is een machinelearningmodel dat is getraind in één taal en vervolgens kan worden gebruikt met andere talen zonder aanvullende trainingsgegevens. Mensen plaatsen content in meer dan 160 talen op Meta-technologieën en met XLM-R kunnen we één model gebruiken voor veel talen, in plaats van één model per taal. Zo kunnen we haatdragend taalgebruik en andere schendende content eenvoudig identificeren in een breed scala aan talen en kunnen we producten in meerdere talen tegelijk lanceren. We hebben onze modellen en code openbaar beschikbaar gesteld, zodat de onderzoekscommunity de prestaties van zijn meertalige modellen kan verbeteren. Doel: mensen de beste ervaring bieden op onze platformen, ongeacht de taal die ze spreken.
Linformer is een transformatie-architectuur die miljarden contentitems op Facebook en Instagram analyseert in verschillende regio's over de hele wereld. Linformer helpt bij het detecteren van haatdragend taalgebruik en content die aanzet tot geweld. We hebben ons onderzoek en de Linformer-code openbaar beschikbaar gesteld, zodat andere onderzoekers en technici hun modellen kunnen verbeteren. Doel: een nieuw AI-model ontwikkelen dat leert van tekst, afbeeldingen en spraak en op een efficiënte manier haatdragend taalgebruik, mensenhandel, pesten en andere vormen van schadelijke content detecteert.
Deepfakes Detection Challenge
We hebben met Microsoft, het Partnership on AI en academici van verschillende universiteiten een wedstrijd georganiseerd om technologie te ontwikkelen die beter detecteert wanneer er AI is gebruikt om een video te bewerken met als doel kijkers te misleiden. Onze bijdrage aan de Deepfakes Detection Challenge bestond uit het beschikbaar stellen van een realistische gegevensset, waar het de branche aan ontbrak, om te helpen deepfakes te detecteren. Doel: de branche stimuleren nieuwe manieren te vinden om met AI gemanipuleerde media te detecteren en te voorkomen dat deze media worden gebruikt om mensen te misleiden.
We hebben samen met Getty Images en DrivenData een wedstrijd georganiseerd om onderzoek te versnellen naar het probleem van het detecteren van haatdragend taalgebruik waarbij afbeeldingen en tekst worden gecombineerd. Onze bijdrage aan de Hateful Memes Challenge was het maken van een unieke gegevensset van meer dan 10.000 voorbeelden, zodat onderzoekers deze eenvoudig konden gebruiken in hun werk. Doel: de branche stimuleren om nieuwe aanpakken en methoden te ontwikkelen voor het detecteren van haatdragend taalgebruik met een dubbelzinnige insteek.