Jak Meta inwestuje w technologiÄ™

ZAKTUALIZOWANO 19 STY 2022
Inwestujemy w sztuczną inteligencję, aby ulepszać naszą zdolność do wykrywania treści naruszających zasady i dbać o bezpieczeństwo użytkowników. Niezależnie od tego, czy chodzi o ulepszenie dotychczasowego systemu, czy wprowadzenie nowego, inwestycje takie pomagają nam w automatyzowaniu decyzji dotyczących treści, abyśmy mogli szybciej reagować i zmniejszać liczbę błędów.
Oto kilka z inwestycji poczynionych w technologię sztucznej inteligencji w celu usprawnienia sposobu rozumienia treści przez nasze narzędzia:
  • OpracowaliÅ›my nowÄ… architekturÄ™ o nazwie Linformer, która analizuje treÅ›ci na Facebooku i na Instagramie w różnych regionach Å›wiata.
  • ZbudowaliÅ›my nowy system zwany Reinforced Integrity Optimizer, który uczy siÄ™ z sygnałów online w celu usprawnienia możliwoÅ›ci wykrywania mowy nienawiÅ›ci.
  • UlepszyliÅ›my narzÄ™dzie do dopasowywania obrazów o nazwie SimSearchNet, które pomaga naszej technologii w wykrywaniu subtelnych różnic w treÅ›ci, abyÅ›my mogli podejmować dziaÅ‚ania w stosunku do dezinformacji.
  • WprowadziliÅ›my narzÄ™dzia jÄ™zykowe o nazwach XLM i XLM-R, dziÄ™ki którym tworzymy klasyfikatory rozumiejÄ…ce te same pojÄ™cia w wielu różnych jÄ™zykach. Oznacza to, że jeżeli nasza technologia może uczyć siÄ™ w jednym jÄ™zyku, usprawnia swoje dziaÅ‚anie też w innych, co jest szczególnie przydatne w przypadku jÄ™zyków mniej rozpowszechnionych w Internecie.
  • ZbudowaliÅ›my caÅ‚oÅ›ciowy system rozumienia, który analizuje treÅ›ci, aby uÅ‚atwić ustalenie, czy zawierajÄ… one mowÄ™ nienawiÅ›ci.
Rozwijanie branży sztucznej inteligencji w ramach otwartych wysiłków i współpracy
Wyzwania w postaci szkodliwych treści wpływają na całą branżę technologii i społeczeństwo w skali globalnej. Właśnie dlatego udostępniamy naszą technologię na zasadzie open source, aby inne podmioty też mogły z niej korzystać. Jesteśmy przekonani, że otwartość i współpraca ze społecznością zajmującą się sztuczną inteligencją zadziała stymulująco na badania i rozwój, stworzy nowe sposoby wykrywania szkodliwych treści i zapobiegania im oraz umożliwi zadbanie o bezpieczeństwo użytkowników.
Oto kilka przykładów technologii, które udostępniliśmy w ostatnich latach na zasadzie open source, łącznie z 2 konkursami branżowymi, które zorganizowaliśmy:
XLM-R to model uczenia maszynowego, który szkoli się w jednym języku, a następnie wykorzystuje z innymi językami bez dodatkowych danych szkoleniowych. Biorąc pod uwagę fakt, że treści na platformach Meta publikowane są w ponad 160 językach, narzędzie XLM-R umożliwia nam wykorzystanie jednego modelu w wielu językach zamiast osobnego modelu do każdego języka. Dzięki temu łatwiej możemy identyfikować mowę nienawiści oraz inne treści naruszające zasady w wielu różnych językach oraz wprowadzać produkty w wielu językach jednocześnie. Udostępniamy nasze modele i kody na zasadzie open source, aby społeczność badawcza mogła usprawniać działanie modeli wielojęzycznych.
Cel: Umożliwianie użytkownikom jak najlepszego korzystania z naszych platform, niezależnie od języka, którym się posługują.
Linformer to architektura transformacyjna, która analizuje miliardy treści na Facebooku i na Instagramie w różnych regionach na całym świecie. Linformer pomaga wykrywać mowę nienawiści oraz treści podżegające do przemocy. Opublikowaliśmy nasze badania oraz udostępniliśmy kod narzędzia Linformer na zasadzie open source, aby inni badacze i inżynierowie mogli ulepszać swoje modele.
Cel: Tworzenie nowego modelu sztucznej inteligencji, który uczy się z tekstu, obrazów oraz mowy i skutecznie wykrywa mowę nienawiści, handel ludźmi, nękanie oraz inne formy szkodliwych treści.
Zorganizowaliśmy konkurs wraz z firmą Microsoft, z którą współpracujemy przy projektach sztucznej inteligencji, oraz kadrą naukową z wielu uczelni; celem konkursu jest opracowanie technologii, która lepiej wykrywa przypadki użycia sztucznej inteligencji do zmiany materiału wideo w celu wprowadzenia widzów w błąd. Naszym wkładem w konkurs Deepfakes Detection Challenge było dostarczenie realistycznego zbioru danych, którego brakowało w branży, w celu ułatwienia wykrywania dezinformacji typu deepfakes.
Cel: Stymulowanie branży do opracowywania nowych sposobów wykrywania manipulacji medialnej sztuczną inteligencją oraz zapobiegania wykorzystywaniu takich manipulacji do wprowadzania użytkowników w błąd.
Zorganizowaliśmy konkurs wraz z Getty Images i DrivenData w celu przyspieszenia badań nad kwestią wykrywania mowy nienawiści łączącej obraz i tekst. Naszym wkładem w konkurs Hateful Memes Challenge było stworzenie unikatowego zbioru danych w postaci ponad 10 000 przykładów, aby badacze mogli z łatwością wykorzystać je w pracy.
Cel: Stymulowanie branży do opracowywania nowych podejść i metod wykrywania multimodalnej mowy nienawiści.