În fruntea industriei AI, prin eforturi deschise și bazate pe colaborare
Provocările legate de conținutul dăunător afectează întreaga industrie tehnologică și societatea în general. Din acest motiv, punem la dispoziție tehnologia noastră open-source, pentru ca alții să o poată folosi. Considerăm că, prin deschidere și colaborare cu comunitatea AI, vom încuraja cercetarea și dezvoltarea, vom crea noi modalități de detectare și prevenire a conținutului dăunător și vom contribui la menținerea siguranței utilizatorilor.
Iată câteva elemente de tehnologie pentru care am oferit acces în regim open-source în ultimii ani, inclusiv două competiții din domeniu pe care le-am organizat:
XLM-R este un model de învățare programată care este instruit într-o singură limbă și utilizat apoi cu alte limbi, fără a necesita date de instruire suplimentare. Având în vedere că utilizatorii postează conținuturi în peste 160 de limbi în cadrul tehnologiilor Meta, XLM-R ne permite să utilizăm un singur model pentru mai multe limbi, în loc să avem un model pentru fiecare limbă. Acest lucru ne ajută să identificăm mai ușor limbajul care incită la ură și alte conținuturi care ne încalcă politicile dintr-o gamă largă de limbi, precum și să lansăm produse simultan în mai multe limbi. Ne-am pus la dispoziție modelele și codul în formă open-source, astfel încât comunitatea de cercetători să poată îmbunătăți performanțele modelelor lor multilingve. Obiectiv: să le oferim utilizatorilor cea mai bună experiență pe platformele noastre, indiferent de limba pe care o vorbesc.
Linformer este o arhitectură transformatoare ce analizează miliarde de elemente de conținut de pe Facebook și Instagram din diferite regiuni ale lumii. Linformer ajută la detectarea limbajului care incită la ură și a conținutului care îndeamnă la violență. Ne-am publicat rezultatele cercetării și am pus la dispoziție codul Linformer ca open-source, astfel încât și alți cercetători și ingineri să își poată îmbunătăți modelele. Obiectiv: să creăm un model AI nou care să învețe din texte, imagini și limbaje și care să detecteze în mod eficient limbajul care incită la ură, traficul de persoane, bullyingul și alte forme de conținut dăunător.
Provocarea detectării conținutului de tip deepfake
Am creat o competiție împreună cu Microsoft, cu Parteneriatul pentru AI și cu cadre de la diverse universități cu profil tehnologic, care detectează mai bine dacă a fost utilizată tehnologia AI pentru modificarea unui clip video, cu intenția de a induce în eroare utilizatorii. Contribuția noastră la Provocarea detectării conținutului de tip deepfake a fost să creăm un set de date realist, care lipsea în acest domeniu, pentru a ajuta la detectarea elementelor de conținut de tip deepfake. Obiectiv: să încurajăm domeniul să creeze metode noi de detectare și de prevenire a manipulării elementelor media cu ajutorul AI în scopul inducerii în eroare a utilizatorilor.
Provocarea privind meme-urile ce instigă la ură
Am creat o competiție împreună cu Getty Images și DrivenData, pentru a accelera cercetarea problemei detectării limbajului care incită la ură ce combină imagini și texte. Contribuția noastră la Provocarea privind meme-urile ce instigă la ură a fost să creăm un set unic de date cu peste 10.000 de exemple, pe care cercetătorii să le poată utiliza cu ușurință în activitatea lor. Obiectiv: să încurajăm domeniul să creeze noi abordări și metode pentru detectarea limbajului multimodal care incită la ură.