Korekty i poprawki

ZAKTUALIZOWANO 2 PAź 2024
Szczegółowo opisujemy poszczególne korekty wykryte dzięki stosowanym praktykom kontroli jakości informacji. Będziemy je aktualizować zgodnie z procedurami dokonywania pomiarów.
Odkryliśmy błąd w zapytaniu używanym do obliczania widoczności fałszywych kont na Facebooku w I kwartale 2024 r. i usunęliśmy go. W rezultacie nieco przeszacowaliśmy widoczność w I kwartale 2024 r.
Widoczność zawartości naruszającej zasady ocenia się za pomocą próbek wyświetleń zawartości na Facebooku lub Instagramie. Usunęliśmy błąd w przypadkach, w których pobierano próbki niewielkiej ilości nieistotnych danych. Błąd został usunięty bez istotnego wpływu na widoczność.
Wskaźnik działań proaktywnych został zwiększony dla wielu rodzajów naruszeń w miarę aktualizacji naszej metodologii. Przed tą zmianą, gdy użytkownicy zgłaszali post, uznawaliśmy również komentarze pod postem za zgłoszone przez użytkownika. Począwszy od III kw. 2023 r. zmieniliśmy metodologię i uznajemy komentarze za zgłoszone przez użytkownika tylko wówczas, jeżeli zostały bezpośrednio zgłoszone przez użytkowników.
Ponadto wskaźniki phishingu nie będą już zaliczane do spamu w raportach z egzekwowania Standardów społeczności począwszy od III kw. 2023 r. w celu dostosowania do poprzedniej zmiany w zasadach Meta.
Zgodnie z ustawą o usługach cyfrowych w Unii Europejskiej (DSA) użytkownicy muszą mieć możliwość złożenia odwołania w okresie sześciu miesięcy po podjęciu działań egzekucyjnych, co wydłuża okres na złożenie odwołania. Oznacza to, że aby znacząco przedstawić działania użytkownika w naszych wskaźnikach fałszywych kont, zaktualizowaliśmy sposób raportowania fałszywych kont w celu dostosowania do nowego okresu. Wzrost liczby usuniętych kont, jaki zaobserwowaliśmy pomiędzy pierwszym a drugim kwartałem, wynika z tej zmiany raportowania.
W ramach naszych działań na rzecz nieustannego dopracowywania i ulepszania wskaźników udostępnianych w niniejszym raporcie zaktualizowaliśmy metodologię wskaźnika działań proaktywnych począwszy od IV kw. 2022 r., tak aby działania egzekucyjne były liczone jako „proaktywne” tylko wówczas jeżeli znajdziemy treści naruszające zasady i podejmiemy w stosunku do nich działania, zanim zgłoszą je nam użytkownicy. Według starej metodologii działania były uznawane za „proaktywne”, jeżeli proaktywne wykrycie miało miejsce jako pierwsze w sytuacjach, gdy wystąpiły obie przyczyny wykrycia (tj. treści zostały proaktywnie wykryte i zgłoszone nam przez użytkowników). Nowa metodologia uwzględnia istnienie zgłoszeń od użytkownika i zalicza teraz takie przypadki do „reaktywnych” a nie „proaktywnych”. Choć zmiana ta nie zmienia istotnie wskaźników, przyczyniła się do mniejszej różnicy wskaźnika działań proaktywnych pomiędzy pierwszym a drugim kwartałem. Tabela w niniejszym dokumencie zawiera porównanie wskaźników mierzonych zarówno nową i jak i starą metodą dla okresów raportowania za III i IV kw. 2022 r.
Począwszy od I kw. 2020 r., z uwagi na tymczasowe ograniczenie naszych możliwości weryfikacji w wyniku COVID-19, nie zawsze mogliśmy zaoferować użytkownikom opcję odwołania, ale nadal zapewnialiśmy im możliwość zgłoszenia, że nie zgadzają się z naszą decyzją. Jak to odzwierciedlają nasze dane za okres od I kw. 2020 r. do I kw. 2022 r. nie wliczaliśmy tych przypadków do naszej definicji wskaźników odwołań, ponieważ dają one wprawdzie cenne opinie użytkowników, ale nie kwalifikują się jako odwołanie bez okazji do weryfikacji. W ostatnim roku ulepszaliśmy i dopracowywaliśmy możliwości odwołania i w miarę ustabilizowania naszych działań weryfikujemy obecnie wiele z tych przykładów.
W ramach naszych działań na rzecz nieustającego dopracowywania i ulepszania wskaźników udostępnianych w niniejszym raporcie zaktualizowaliśmy naszą metodologię począwszy od II kw. 2022 r. w celu uwzględnienia wszystkich przypadków, gdy treści zgłoszono do dodatkowej weryfikacji, również wtedy gdy użytkownicy zgłaszali nam, że nie zgadzają się z naszą decyzją. Nadal wyłączamy przykłady, w których treści nie przedkłada się do dodatkowej weryfikacji, nawet jeżeli użytkownicy zgłaszali nam, że nie zgadzają się z naszą decyzją, jak to miało miejsce w wielu przypadkach spamu.
W czwartym kwartale dokonaliśmy identyfikacji i ponownej klasyfikacji działań podjętych w stosunku do zawartości na Facebooku i Instagramie. Miało to wpływ na dotychczas przedstawione statystyki zawartości, w stosunku do której podjęto działanie, na wskaźnik działań proaktywnych, zawartość, w stosunku do której złożono odwołanie, oraz na zawartość przywróconą za III kw. 2021 r. Liczby zostały odpowiednio skorygowane.
W II kw. 2020 roku okazało się, że część zawartości, w stosunku do której podjęliśmy działanie ze względu na treści drastyczne i zawierające przemoc, naruszała nasze określone zasady dotyczące ukazywania samobójstw i samookaleczenia. Odpowiednio zmieniliśmy klasyfikację tej zawartości, co miało wpływ na wcześniej opublikowane wskaźniki zawartości, w stosunku do której podjęto działania na Instagramie w II kw. 2020 r. Ponadto nieco zaktualizowaliśmy liczbę przywróconych treści na Instagramie dotyczących nagości dziecięcej i wykorzystywania seksualnego w III kw. 2020 r. ze względu na wcześniejszą błędną kategoryzację materiałów. W miarę aktualizowania naszych zasad i ulepszania systemów i obliczeń będziemy aktualizować również wcześniejsze dane.
W tym kwartale zawęźliliśmy wskaźniki dotyczące spamu oraz treści związanych z samobójstwem i samookaleczeniem, co przyniosło minimalne zmiany względem wcześniej raportowanych wartości. Co więcej, wprowadziliśmy poprawki w metodologii, które doprowadziły do nieznacznych zmian wartości wskaźników działań proaktywnych w przypadku treści dotyczących nękania i prześladowania oraz samobójstwa i samookaleczenia. Wreszcie, zmieniliśmy klasyfikację niektórych treści, w stosunku do których podjęto działanie ze względu na spam oraz na nagość i treści pornograficzne przedstawiające osoby dorosłe, co wpłynęło na wskaźniki przywróconej zawartości.
W 2020 roku okazało się, że część zawartości, w stosunku do której podjęliśmy działanie ze względu na treści drastyczne i zawierające przemoc, naruszała zasady dotyczące ukazywania samobójstw i samookaleczenia. Odpowiednio zmieniliśmy klasyfikację tej zawartości, co miało wpływ na wcześniej opublikowane wskaźniki zawartości, w stosunku do której podjęto działania na Facebooku w 2020 roku.
W IV kw. doprecyzowaliśmy w naszych zasadach niektóre kategorie obrazów na Facebooku przedstawiających nagość i aktywność seksualną osób dorosłych. W oparciu o aktualne zasady przywróciliśmy część zawartości, w stosunku do której podjęto działanie, co miało wpływ na wcześniej opublikowane statystyki dotyczące przywróconej zawartości na Facebooku w III kw.
W przypadku treści drastycznych i zawierających przemoc widoczność była dotychczas ujęta w raporcie na temat wdrażania Standardów społeczności za listopad 2020 r. i wyniosła w granicach 0,05%-0,06% wyświetleń. W raporcie z lutego 2021 roku zaktualizowaliśmy widoczność treści drastycznych i zawierających przemoc do poziomu około 0,07% wyświetleń w III kw.
Kiedy na początku września sprawdziliśmy dane ręcznie, okazało się, że w II kw. część zawartości, w stosunku do której podjęliśmy działanie za naruszenie zasad dotyczących przedstawiania treści drastycznych i zawierających przemoc, narusza konkretne zasady dotyczące prezentowania samobójstw i samookaleczenia. Odpowiednio zmieniliśmy klasyfikację tej zawartości, co miało wpływ na wcześniej opublikowane wskaźniki zawartości, w stosunku do której podjęto działania na Facebooku w III kw.
Ponadto skorygowaliśmy statystyki dotyczące zawartości przywróconej na Instagramie za I i II kw., tak aby uwzględniały one wcześniej niezgłoszone, a przywrócone komentarze. Pociągnęło to za sobą minimalne zmiany w większości obszarów zasad na Instagramie i odpowiednio skorygowaliśmy dotychczas opublikowane dane. W miarę aktualizowania naszych zasad i ulepszania systemów i obliczeń będziemy aktualizować również wcześniejsze dane.
W III kw. dokonaliśmy aktualizacji, w wyniku czego zawartość, w stosunku do której podjęto wcześniej działanie, a która dotyczyła okrutnych i brutalnych materiałów, została usunięta z kategorii mowy nienawiści. Aktualizacja ta miała wpływ na dotychczas przedstawione statystyki zawartości, w stosunku do której podjęto działanie, na wskaźnik działań proaktywnych, zawartość, w stosunku do której złożono odwołanie, oraz na zawartość przywróconą za IV kw. 2019 r., I kw. 2020 r. oraz II kw. 2020 r. Liczby zostały odpowiednio skorygowane. Ponadto zaktualizowaliśmy nasze zasady w ten sposób, że usunęliśmy więcej rodzajów materiałów graficznych przedstawiających samobójstwo i samookaleczenie oraz zmieniliśmy klasyfikację treści drastycznych i zawierających przemoc, która uprzednio, w II kw., oznaczona została jako budząca niepokój.
Ponadto skorygowaliśmy statystyki zawartości przywróconej na Instagramie za I i II kw., aby uwzględnić wcześniej niezgłoszone, a przywrócone komentarze, a także rozwiązaliśmy problem ze źródłem danych w raporcie za sierpień 2020 r. Pociągnęło to za sobą minimalne zmiany w większości obszarów zasad na Instagramie i odpowiednio skorygowaliśmy dotychczas opublikowane dane. W miarę aktualizowania naszych zasad i ulepszania systemów i obliczeń będziemy aktualizować również wcześniejsze dane.
W I kw. 2020 roku wykryliśmy i skorygowaliśmy problem z obliczaniem liczby działań wykonanych przez system na Instagramie do proaktywnego wykrywania treści drastycznych i zawierających przemoc, a w II kw. udało nam się zaktualizować wszystkie systemy zgłoszeń. W przypadku treści drastycznych i zawierających przemoc na Instagramie, zawartość, w stosunku do której podjęto działanie w I kw. 2020 r., została uprzednio ujęta w raporcie z maja 2020 r. w liczbie 2,3 mln elementów, a w raporcie z sierpnia 2020 r. wartość ta została zaktualizowana do 2,8 mln.
W momencie ostatniej aktualizacji w listopadzie 2019 roku dokonaliśmy szeregu ulepszeń naszych systemów i obliczeń. Ulepszenia te pozwoliły nam oszacować największe zmiany przy jednoczesnej dokonanej wtedy korekcie wskaźników. Po sporządzeniu raportu w listopadzie 2019 roku dopracowaliśmy te ulepszenia.
Dzięki tej pracy w piątym wydaniu raportu na temat wdrażania Standardów społeczności za maj 2020 roku dokonujemy korekty wcześniej opublikowanych danych. W większości kategorii za rok 2019 zmiany te są minimalne, a korekty danych dotyczą co najwyżej 3% zmiany zawartości, w stosunku do której podjęto działanie. W miarę zmian klasyfikacji zawartości usuniętej dotychczas ze względu na różne naruszenia w oparciu o bieżące i zmieniające się protokoły będziemy nadal aktualizować dotychczasowe statystyki oraz dążyć do ulepszenia naszych systemów i obliczeń.
W firmie Meta szereg systemów podejmuje działania w stosunku do różnych rodzajów zawartości, aby poprawić wydajność i niezawodność miliardów działań odbywających się w każdym kwartale. Jeden z tych systemów, który obsługuje głównie materiały zawierające linki, nie zarejestrował działań dotyczących określonej zawartości, która została usunięta, jeśli nikt nie próbował jej wyświetlić przez siedem dni od daty utworzenia, nawet jeśli zawartość ta została usunięta z platformy.
Chociaż zdajemy sobie sprawę, że powoduje to niedoszacowanie liczby materiałów zawierających linki zewnętrzne, co ma wpływ głównie na wskaźniki spamu dotyczące treści zawierających złośliwe linki, w chwili obecnej nie jesteśmy w stanie określić tego niedoszacowania z datą wcześniejszą. Z tego względu liczby obecnie przedstawione w raporcie na temat wdrażania Standardów społeczności oznaczają minimalną ilość oszacowanej zawartości, w stosunku do której podjęto działanie, jak również wskaźnik działań proaktywnych za dany okres. Aktualne informacje na temat tej kwestii będą publikowane w miarę dostępności.
Kiedy w listopadzie 2018 roku opublikowaliśmy drugie wydanie raportu na temat wdrażania Standardów społeczności, zaktualizowaliśmy metodę obliczania podejmowanych działań dotyczących zawartości. Dokonaliśmy tego, aby wskaźniki dokładniej odzwierciedlały to, co dzieje się na Facebooku, kiedy podejmujemy działanie w stosunku do zawartości z powodu naruszenia naszych Standardów społeczności. Jeśli na przykład znajdziemy post, który zawiera jedno zdjęcie naruszające nasze zasady, chcemy, aby wskaźnik uwzględniał, że podjęliśmy działanie w stosunku do jednego elementu zawartości, a nie dwa odrębne działania z tytułu usunięcia zdjęcia i posta.
W lipcu 2019 roku okazało się jednak, że systemy rejestrujące i zliczające te działania nie rejestrowały ich prawidłowo. Główną przyczyną była konieczność uwzględnienia wielu działań, które miały miejsce w odstępach milisekund, a jednocześnie nie można było pominąć ani przeszacować poszczególnych działań. Ponieważ system rejestrujący wykorzystywany do pomiarów działa odrębnie od wdrażania przez nas zasad, problem z obliczeniami nie miał wpływu na sposób egzekwowania zasad lub informowania użytkowników o takich działaniach; dotyczył on jedynie sposobu liczenia podejmowanych przez nas działań. Kiedy tylko odkryliśmy problem, przystąpiliśmy do jego rozwiązania, wykrycia niepoprawnych, a wcześniej opublikowanych wskaźników, oraz wdrożenia dokładniejszego systemu kontroli do stosowanych procedur, aby mieć pewność co do rzetelności obliczeń. W sumie okazało się, że problem dotyczył dotychczas przedstawionych statystyk zawartości, w stosunku do której podjęto działanie, wskaźnika działań proaktywnych, zawartości, w stosunku do której złożono odwołanie, oraz zawartości przywróconej za III kw. 2018 r., IV kw. 2018 r. oraz I kw. 2019 r.
Czwarte wydanie raportu na temat wdrażania Standardów społeczności zawiera poprawne wskaźniki za te kwartały, a tabela zamieszczona w formie linku powyżej zawiera wcześniej opublikowane wskaźniki i ich korekty.