Hoe Meta technologie traint

BIJGEWERKT 19 JAN. 2022
Soms is de betekenis van een contentitem onmiddellijk duidelijk voor een mens, maar minder duidelijk voor technologie. Om mensen veilig te houden, moet Meta kunstmatige intelligentie trainen in het detecteren van schendende berichten.
De volgende content is bijvoorbeeld een combinatie van tekst en afbeeldingen. 2 van de afbeeldingen zijn van goede aard, de andere 2 hebben potentieel een kwade insteek.
how we train
Zonder de juiste training hebben de meeste AI-systemen er moeite mee om dit onderscheid te maken. Het systeem leest de tekst en stelt de letterlijke betekenis van de woorden vast of het kijkt naar de afbeelding om de algemene betekenis van het onderwerp van de foto vast te stellen. Mensen koppelen daarentegen de tekst en afbeelding aan elkaar om de content te begrijpen.
Een manier om hiermee om te gaan, is door onze technologie te trainen om eerst naar alle componenten van een bericht te kijken en pas daarna de daadwerkelijke betekenis te bepalen. Op deze manier kunnen we AI-systemen helpen om nauwkeuriger te detecteren wat een mens ziet als ze hetzelfde bericht bekijken.
We gebruiken ook een systeem dat AI stuurt om rechtstreeks te leren van miljoenen actuele contentitems en dat helpt om trainingsgegevens te kiezen die zijn afgestemd op onze doelen. Dit is anders dan standaard AI-systemen die voor training afhankelijk zijn van vaste gegevens. Door deze methode te gebruiken, kunnen we mensen beter beschermen tegen haatdragend taalgebruik en content die aanzet tot geweld.
Ons werk is nog niet gedaan, maar deze training helpt onze technologie om steeds te verbeteren en meer inzicht te krijgen in de daadwerkelijke betekenis van dubbelzinnige content.