Meta

Meta
Beleid
Richtlijnen voor de communityAdvertentierichtlijnen van MetaAnder beleidHoe Meta verbeteringen aanbrengtContent selecteren die geschikt is voor de leeftijd

Functies
Onze benadering van gevaarlijke organisaties en personenOnze benadering van de opioïdenepidemieOnze benadering van verkiezingenOnze benadering van desinformatieOnze benadering van opmerkelijke contentOnze aanpak van rangschikking van het Facebook-overzichtOnze benadering van het uitleggen van rangschikkingenToegankelijkheid bij Meta

Tools voor onderzoek
Contentbibliotheek en Content Library APIAdvertentiebibliotheek-toolsAndere tools voor onderzoek en gegevenssets

Handhaving
Schendingen detecterenActie ondernemen

Toezicht
Innovatie van toezichtOverzicht van het Comité van toezichtBezwaar aantekenen bij het Comité van toezichtKwesties van het Comité van toezichtAanbevelingen van het Comité van toezichtHet Comité van toezicht oprichtenComité van toezicht: Overige gestelde vragenHalfjaarlijkse updates van Meta over het Comité van toezichtDe impact van het Comité van toezicht bijhouden

Beveiliging
Verstoren van dreigingenBeveiligingsrisico'sRapporten van dreigingen

Rapporten
Handhavingsrapport voor de richtlijnen voor de communityIntellectuele eigendomOverheidsverzoeken met betrekking tot gebruikersgegevensContentbeperkingen op basis van lokale wetgevingInternetonderbrekingenRapport over veel bekeken contentRegelgevingsrapporten en overige transparantierapporten

Beleid
Richtlijnen voor de community
Advertentierichtlijnen van Meta
Ander beleid
Hoe Meta verbeteringen aanbrengt
Content selecteren die geschikt is voor de leeftijd
Functies
Onze benadering van gevaarlijke organisaties en personen
Onze benadering van de opioïdenepidemie
Onze benadering van verkiezingen
Onze benadering van desinformatie
Onze benadering van opmerkelijke content
Onze aanpak van rangschikking van het Facebook-overzicht
Onze benadering van het uitleggen van rangschikkingen
Toegankelijkheid bij Meta
Tools voor onderzoek
Contentbibliotheek en Content Library API
Advertentiebibliotheek-tools
Andere tools voor onderzoek en gegevenssets
Handhaving
Schendingen detecteren
Actie ondernemen
Toezicht
Innovatie van toezicht
Overzicht van het Comité van toezicht
Bezwaar aantekenen bij het Comité van toezicht
Kwesties van het Comité van toezicht
Aanbevelingen van het Comité van toezicht
Het Comité van toezicht oprichten
Comité van toezicht: Overige gestelde vragen
Halfjaarlijkse updates van Meta over het Comité van toezicht
De impact van het Comité van toezicht bijhouden
Beveiliging
Verstoren van dreigingen
Beveiligingsrisico's
Rapporten van dreigingen
Rapporten
Handhavingsrapport voor de richtlijnen voor de community
Intellectuele eigendom
Overheidsverzoeken met betrekking tot gebruikersgegevens
Contentbeperkingen op basis van lokale wetgeving
Internetonderbrekingen
Rapport over veel bekeken content
Regelgevingsrapporten en overige transparantierapporten
Beleid
Richtlijnen voor de community
Advertentierichtlijnen van Meta
Ander beleid
Hoe Meta verbeteringen aanbrengt
Content selecteren die geschikt is voor de leeftijd
Functies
Onze benadering van gevaarlijke organisaties en personen
Onze benadering van de opioïdenepidemie
Onze benadering van verkiezingen
Onze benadering van desinformatie
Onze benadering van opmerkelijke content
Onze aanpak van rangschikking van het Facebook-overzicht
Onze benadering van het uitleggen van rangschikkingen
Toegankelijkheid bij Meta
Tools voor onderzoek
Contentbibliotheek en Content Library API
Advertentiebibliotheek-tools
Andere tools voor onderzoek en gegevenssets
Beveiliging
Verstoren van dreigingen
Beveiligingsrisico's
Rapporten van dreigingen
Rapporten
Handhavingsrapport voor de richtlijnen voor de community
Intellectuele eigendom
Overheidsverzoeken met betrekking tot gebruikersgegevens
Contentbeperkingen op basis van lokale wetgeving
Internetonderbrekingen
Rapport over veel bekeken content
Regelgevingsrapporten en overige transparantierapporten
Handhaving
Schendingen detecteren
Actie ondernemen
Toezicht
Innovatie van toezicht
Overzicht van het Comité van toezicht
Bezwaar aantekenen bij het Comité van toezicht
Kwesties van het Comité van toezicht
Aanbevelingen van het Comité van toezicht
Het Comité van toezicht oprichten
Comité van toezicht: Overige gestelde vragen
Halfjaarlijkse updates van Meta over het Comité van toezicht
De impact van het Comité van toezicht bijhouden
Beleid
Richtlijnen voor de community
Advertentierichtlijnen van Meta
Ander beleid
Hoe Meta verbeteringen aanbrengt
Content selecteren die geschikt is voor de leeftijd
Functies
Onze benadering van gevaarlijke organisaties en personen
Onze benadering van de opioïdenepidemie
Onze benadering van verkiezingen
Onze benadering van desinformatie
Onze benadering van opmerkelijke content
Onze aanpak van rangschikking van het Facebook-overzicht
Onze benadering van het uitleggen van rangschikkingen
Toegankelijkheid bij Meta
Tools voor onderzoek
Contentbibliotheek en Content Library API
Advertentiebibliotheek-tools
Andere tools voor onderzoek en gegevenssets
Handhaving
Schendingen detecteren
Actie ondernemen
Toezicht
Innovatie van toezicht
Overzicht van het Comité van toezicht
Bezwaar aantekenen bij het Comité van toezicht
Kwesties van het Comité van toezicht
Aanbevelingen van het Comité van toezicht
Het Comité van toezicht oprichten
Comité van toezicht: Overige gestelde vragen
Halfjaarlijkse updates van Meta over het Comité van toezicht
De impact van het Comité van toezicht bijhouden
Beveiliging
Verstoren van dreigingen
Beveiligingsrisico's
Rapporten van dreigingen
Rapporten
Handhavingsrapport voor de richtlijnen voor de community
Intellectuele eigendom
Overheidsverzoeken met betrekking tot gebruikersgegevens
Contentbeperkingen op basis van lokale wetgeving
Internetonderbrekingen
Rapport over veel bekeken content
Regelgevingsrapporten en overige transparantierapporten
Nederlands
PrivacybeleidServicevoorwaardenCookies
Home
Enforcement
Detecting Violations
Investing In Technology

Hoe Meta investeert in technologie

BIJGEWERKT 19 JAN. 2022
We investeren in kunstmatige intelligentie om onze mogelijkheden om inbreukmakende content te detecteren en mensen veilig te houden te verbeteren. Of we nu een bestaand systeem verbeteren of een nieuw systeem introduceren, deze investeringen helpen ons om besluiten over content te automatiseren zodat we sneller kunnen reageren en het aantal fouten kunnen verminderen.
Dit zijn een aantal van de investeringen die we hebben gedaan in AI-technologie om te verbeteren hoe onze tools content begrijpen:
  • We hebben een nieuwe architectuur ontwikkeld met de naam Linformer, die content op Facebook en Instagram in verschillende regio's over de hele wereld analyseert.
  • We hebben een nieuw systeem genaamd Reinforced Integrity Optimizer gebouwd dat leert van online signalen om onze mogelijkheden voor het detecteren van haatdragend taalgebruik te verbeteren.
  • We hebben een tool voor het zoeken van afbeeldingsovereenkomsten genaamd SimSearchNet verbeterd. Deze helpt onze technologie om subtiele verschillen in content te detecteren, zodat we actie kunnen ondernemen op desinformatie.
  • We hebben de taaltools XLM en XLM-R ingebouwd. Deze helpen ons om classifiers te bouwen die hetzelfde concept in meerdere talen begrijpen. Dit betekent dat wanneer onze technologie in één taal kan leren, de technologie zijn prestaties kan verbeteren in andere talen. Dit is vooral nuttig voor talen die minder gangbaar zijn op internet.
  • We hebben een volledig systeem voor het verkrijgen van inzicht gebouwd. Dit analyseert content om te bepalen of deze haatdragend taalgebruik bevat.

De AI-branche voorwaarts leiden met open, gezamenlijke inspanningen
De uitdagingen die schadelijke content met zich meebrengt, zijn van invloed op de gehele technologiebranche en op de maatschappij in het algemeen. Daarom stellen we onze technologie openbaar beschikbaar zodat anderen deze kunnen gebruiken. We zijn van mening dat onderzoek en ontwikkeling zullen worden gestimuleerd door open te zijn naar en samen te werken met de AI-community, zodat er nieuwe manieren worden gevonden om schadelijke content te detecteren en voorkomen en mensen veilig te helpen houden.
Dit zijn een aantal van de technologieën die we in recente jaren openbaar beschikbaar hebben gesteld, waaronder 2 branchewedstrijden die we hebben georganiseerd:

XLM-R
XLM-R is een machinelearningmodel dat is getraind in één taal en vervolgens kan worden gebruikt met andere talen zonder aanvullende trainingsgegevens. Mensen plaatsen content in meer dan 160 talen op Meta-technologieën en met XLM-R kunnen we één model gebruiken voor veel talen, in plaats van één model per taal. Zo kunnen we haatdragend taalgebruik en andere schendende content eenvoudig identificeren in een breed scala aan talen en kunnen we producten in meerdere talen tegelijk lanceren. We hebben onze modellen en code openbaar beschikbaar gesteld, zodat de onderzoekscommunity de prestaties van zijn meertalige modellen kan verbeteren.
Doel: mensen de beste ervaring bieden op onze platformen, ongeacht de taal die ze spreken.

Linformer
Linformer is een transformatie-architectuur die miljarden contentitems op Facebook en Instagram analyseert in verschillende regio's over de hele wereld. Linformer helpt bij het detecteren van haatdragend taalgebruik en content die aanzet tot geweld. We hebben ons onderzoek en de Linformer-code openbaar beschikbaar gesteld, zodat andere onderzoekers en technici hun modellen kunnen verbeteren.
Doel: een nieuw AI-model ontwikkelen dat leert van tekst, afbeeldingen en spraak en op een efficiënte manier haatdragend taalgebruik, mensenhandel, pesten en andere vormen van schadelijke content detecteert.

Deepfakes Detection Challenge
We hebben met Microsoft, het Partnership on AI en academici van verschillende universiteiten een wedstrijd georganiseerd om technologie te ontwikkelen die beter detecteert wanneer er AI is gebruikt om een video te bewerken met als doel kijkers te misleiden. Onze bijdrage aan de Deepfakes Detection Challenge bestond uit het beschikbaar stellen van een realistische gegevensset, waar het de branche aan ontbrak, om te helpen deepfakes te detecteren.
Doel: de branche stimuleren nieuwe manieren te vinden om met AI gemanipuleerde media te detecteren en te voorkomen dat deze media worden gebruikt om mensen te misleiden.

Hateful Memes Challenge
We hebben samen met Getty Images en DrivenData een wedstrijd georganiseerd om onderzoek te versnellen naar het probleem van het detecteren van haatdragend taalgebruik waarbij afbeeldingen en tekst worden gecombineerd. Onze bijdrage aan de Hateful Memes Challenge was het maken van een unieke gegevensset van meer dan 10.000 voorbeelden, zodat onderzoekers deze eenvoudig konden gebruiken in hun werk.
Doel: de branche stimuleren om nieuwe aanpakken en methoden te ontwikkelen voor het detecteren van haatdragend taalgebruik met een dubbelzinnige insteek.
Meta
Transparantiecentrum
Beleid
Handhaving
Beveiliging
Functies
Toezicht
Tools voor onderzoek
Rapporten
Nederlands