Jak Meta szkoli technologiÄ™
ZAKTUALIZOWANO 19 STY 2022
Czasami znaczenie treści jest od razu oczywiste dla człowieka, ale mniej jasne dla technologii. W ramach dbania o bezpieczeństwo osób Meta musi przeszkolić sztuczną inteligencję w tym, jak wykrywać posty naruszające zasady.
Na przykład następujące treści to połączenie tekstu i obrazu. Dwa z obrazów są pozytywne, natomiast dwa pozostałe potencjalnie negatywne.
Bez odpowiedniego szkolenia sztuczna inteligencja w większości przypadków nie radzi sobie z takim rozróżnieniem. Albo odczytuje tekst i określa dosłowne znaczenie słów, albo analizuje obraz, aby określić ogólne znaczenie przedmiotu na zdjęciu. Z kolei człowiek instynktownie łączy tekst z obrazem, aby zrozumieć treść.
Jednym ze sposobów rozwiązania tego problemu jest przeszkolenie technologii, aby najpierw przeanalizowała wszystkie elementy posta i dopiero wtedy określiła prawdziwe znaczenie. Może to w dużej mierze pomóc sztucznej inteligencji w dokładniejszym wykrywaniu tego, co użytkownik widzi, wyświetlając taki sam post.
Korzystamy też z systemu, który instruuje sztuczną inteligencję, jak uczyć się bezpośrednio z milionów aktualnych fragmentów treści, i pomaga w wybieraniu danych szkoleniowych, które odzwierciedlają nasze cele. Różni się to od typowych systemów sztucznej inteligencji, których szkolenie opiera się na stałych danych. Korzystanie z tej metody pomaga nam lepiej chronić użytkowników przed mową nienawiści oraz treściami, które podżegają do nienawiści.Przed nami nadal mnóstwo pracy, ale takie szkolenie pomoże w dalszym usprawnianiu naszej technologii i w lepszym rozumieniu prawdziwego znaczenia treści multimodalnych.