Hogyan fektet be a Meta a technológiába?

FRISSÍTVE 2022. JAN. 19.
Erőforrásokat fektetünk be a mesterséges intelligenciába, hogy fejlesszük a szabálysértő tartalmak észlelésére és az emberek biztonságának megóvására irányuló képességünket. Akár egy meglévő rendszer továbbfejlesztéséről, akár egy új rendszer bevezetéséről van szó, ezek a befektetések segítenek nekünk a tartalommal kapcsolatos döntések automatizálásában, ezen keresztül pedig a gyorsabb reagálásban és a hibák számának csökkentésében.
Íme néhány befektetésünk a mesterséges intelligenciát használó technológiába, amelyek révén az eszközeink jobban megérthetik a tartalmakat:
  • Új fejlesztésű Linformer architektúránk szerte a világ különböző régióiban elemzi a tartalmakat a Facebookon és az Instagramon.
  • Kiépítettünk egy online jelekből tanuló új rendszert Reinforced Integrity Optimizer néven, amely javítja a gyűlöletbeszéd észlelésére irányuló képességünket.
  • Továbbfejlesztettük SimSearchNet nevű képmegfeleltetési eszközünket, amely segít a technológiánknak észlelni a finom különbségeket a tartalmakban, hogy fel tudjunk lépni a félretájékoztatással szemben.
  • Az XLM és az XLM-R nyelvtechnológiai eszközök beépítése segít olyan besorolások kidolgozásában, amelyek több nyelven is értelmezik ugyanazt a fogalmat. Ez azt jelenti, hogy amikor a technológiánk meg tud tanulni valamit egy nyelven, növekszik a teljesítménye más nyelveken is. Ez különösen hasznos az interneten kevésbé elterjedt nyelvek esetében.
  • Kidolgoztunk egy teljes egységek értelmezésre alkalmas rendszert, amely elemzi a tartalmakat, és segít bennük meghatározni a gyűlöletbeszéd jelenlétét.
Nyílt együttműködésekkel az MI-iparág fellendítéséért
A káros tartalmak kihívásai egyaránt érintik a teljes technológiai iparágat és az egész társadalmat. Ezért tesszük nyílt forráskódúvá a technológiánkat, hogy mások is felhasználhassák. Hiszünk abban, hogy a nyílt és együttműködő szemlélet az MI-közösségen belül felpörgeti a kutatás-fejlesztést, új megoldásokat teremt a káros tartalmak észlelésére és megelőzésére, továbbá segít megóvni az embereket.
Íme néhány példa azokra a technológiai elemekre, amelyeket az elmúlt években nyílt forráskódúvá tettünk, beleértve 2 iparági kihívást, amelyekben vezető szerepet vállaltunk:
Az XLM-R egy olyan gépi tanulási modell, amely az egyik nyelven történő betanítását követően további betanítási adatok nélkül alkalmazható más nyelvekre is. Az emberek több mint 160 nyelven tesznek közzé tartalmakat a Meta technológiáin, ezért nagy jelentőséggel bír, hogy az XLM-R a nyelvenkénti modellek szükségessége helyett lehetővé teszi egyetlen modell használatát számos nyelvhez. Ez megkönnyíti számunkra a gyűlöletbeszéd és más szabálysértő tartalmak azonosítását számos nyelven, és termékeink bevezetését egyidejűleg több nyelven. Nyílt forráskódúvá tettük modelljeinket és programkódjainkat, hogy a kutatóközösség javíthasson saját többnyelvű modelljei teljesítményén.
A cél: A legjobb élményt szeretnénk kínálni az embereknek a platformjainkon – függetlenül az általuk beszélt nyelvtől.
Linformer transzformációs architektúránk több milliárd tartalomelemet analizál szerte a világ különböző régióiban a Facebookon és az Instagramon. A Linformer segít észlelni a gyűlöletbeszédet és az erőszakra uszító tartalmakat. Közzétettük kutatásunkat, és nyílt forrásúvá tettük a Linformer programkódját, hogy más kutatók és mérnökök is továbbfejleszthessék modelljeiket.
A cél: Olyan új MI-modell létrehozása, amely szöveg, képek és beszéd alapján is tanul, és hatékonyan észleli a gyűlöletbeszéd, az emberkereskedelem, a megfélemlítés, valamint a káros tartalmak további formáinak előfordulásait.
A Microsoft, a Partnership on AI, valamint számos egyetem tudósainak együttműködésével kiírtunk egy versenyt olyan technológia megalkotására, amely hatékonyabban észleli, ha egy videót a nézők félrevezetése céljából MI használatával módosítottak. A Deepfakes Detection Challenge verseny keretében a „deepfake” megoldások észleléséhez mi biztosítottunk egy olyan valós adatkészletet, amely nem állt az iparág rendelkezésére.
A cél: Így előremozdíthatjuk az iparágban az új megoldások kidolgozását a mesterséges intelligenciával manipulált médiatartalmak észlelésére – és az emberek félrevezetésére való felhasználásuk megelőzésére.
A Getty Images és a DrivenData együttműködésével írtunk ki versenyt, hogy felgyorsítsuk a képeket és szöveget kombináló gyűlöletbeszéd észlelésének kutatását. A gyűlöletkeltő mémek elleni Hateful Memes Challenge kihíváshoz több mint 10 ezer példát tartalmazó, egyedi adatkészletet állítottunk össze, amelyet a kutatók egyszerűen felhasználhattak a munkájukhoz.
A cél:: Felélénkíteni az iparágban az új megközelítések és módszerek kidolgozását a multimodális gyűlöletbeszéd észlelésére.