Jak Meta inwestuje w technologiÄ™
ZAKTUALIZOWANO 19 STY 2022
Oto kilka z inwestycji poczynionych w technologię sztucznej inteligencji w celu usprawnienia sposobu rozumienia treści przez nasze narzędzia:
- Opracowaliśmy nową architekturę o nazwie Linformer, która analizuje treści na Facebooku i na Instagramie w różnych regionach świata.
- Zbudowaliśmy nowy system zwany Reinforced Integrity Optimizer, który uczy się z sygnałów online w celu usprawnienia możliwości wykrywania mowy nienawiści.
- Ulepszyliśmy narzędzie do dopasowywania obrazów o nazwie SimSearchNet, które pomaga naszej technologii w wykrywaniu subtelnych różnic w treści, abyśmy mogli podejmować działania w stosunku do dezinformacji.
- Wprowadziliśmy narzędzia językowe o nazwach XLM i XLM-R, dzięki którym tworzymy klasyfikatory rozumiejące te same pojęcia w wielu różnych językach. Oznacza to, że jeżeli nasza technologia może uczyć się w jednym języku, usprawnia swoje działanie też w innych, co jest szczególnie przydatne w przypadku języków mniej rozpowszechnionych w Internecie.
- Zbudowaliśmy całościowy system rozumienia, który analizuje treści, aby ułatwić ustalenie, czy zawierają one mowę nienawiści.
Rozwijanie branży sztucznej inteligencji w ramach otwartych wysiłków i współpracy
Wyzwania w postaci szkodliwych treści wpływają na całą branżę technologii i społeczeństwo w skali globalnej. Właśnie dlatego udostępniamy naszą technologię na zasadzie open source, aby inne podmioty też mogły z niej korzystać. Jesteśmy przekonani, że otwartość i współpraca ze społecznością zajmującą się sztuczną inteligencją zadziała stymulująco na badania i rozwój, stworzy nowe sposoby wykrywania szkodliwych treści i zapobiegania im oraz umożliwi zadbanie o bezpieczeństwo użytkowników.
Oto kilka przykładów technologii, które udostępniliśmy w ostatnich latach na zasadzie open source, łącznie z 2 konkursami branżowymi, które zorganizowaliśmy:
XLM-R
XLM-R to model uczenia maszynowego, który szkoli się w jednym języku, a następnie wykorzystuje z innymi językami bez dodatkowych danych szkoleniowych. Biorąc pod uwagę fakt, że treści na platformach Meta publikowane są w ponad 160 językach, narzędzie XLM-R umożliwia nam wykorzystanie jednego modelu w wielu językach zamiast osobnego modelu do każdego języka. Dzięki temu łatwiej możemy identyfikować mowę nienawiści oraz inne treści naruszające zasady w wielu różnych językach oraz wprowadzać produkty w wielu językach jednocześnie. Udostępniamy nasze modele i kody na zasadzie open source, aby społeczność badawcza mogła usprawniać działanie modeli wielojęzycznych.
Cel: Umożliwianie użytkownikom jak najlepszego korzystania z naszych platform, niezależnie od języka, którym się posługują.Linformer
Linformer to architektura transformacyjna, która analizuje miliardy treści na Facebooku i na Instagramie w różnych regionach na całym świecie. Linformer pomaga wykrywać mowę nienawiści oraz treści podżegające do przemocy. Opublikowaliśmy nasze badania oraz udostępniliśmy kod narzędzia Linformer na zasadzie open source, aby inni badacze i inżynierowie mogli ulepszać swoje modele.
Cel: Tworzenie nowego modelu sztucznej inteligencji, który uczy się z tekstu, obrazów oraz mowy i skutecznie wykrywa mowę nienawiści, handel ludźmi, nękanie oraz inne formy szkodliwych treści.Deepfakes Detection Challenge
Zorganizowaliśmy konkurs wraz z firmą Microsoft, z którą współpracujemy przy projektach sztucznej inteligencji, oraz kadrą naukową z wielu uczelni; celem konkursu jest opracowanie technologii, która lepiej wykrywa przypadki użycia sztucznej inteligencji do zmiany materiału wideo w celu wprowadzenia widzów w błąd. Naszym wkładem w konkurs Deepfakes Detection Challenge było dostarczenie realistycznego zbioru danych, którego brakowało w branży, w celu ułatwienia wykrywania dezinformacji typu deepfakes.
Cel: Stymulowanie branży do opracowywania nowych sposobów wykrywania manipulacji medialnej sztuczną inteligencją oraz zapobiegania wykorzystywaniu takich manipulacji do wprowadzania użytkowników w błąd.Hateful Memes Challenge
Zorganizowaliśmy konkurs wraz z Getty Images i DrivenData w celu przyspieszenia badań nad kwestią wykrywania mowy nienawiści łączącej obraz i tekst. Naszym wkładem w konkurs Hateful Memes Challenge było stworzenie unikatowego zbioru danych w postaci ponad 10 000 przykładów, aby badacze mogli z łatwością wykorzystać je w pracy.
Cel: Stymulowanie branży do opracowywania nowych podejść i metod wykrywania multimodalnej mowy nienawiści.