איך Meta מתעדפת תוכן לבדיקה

מעודכן ‏12 בנוב' 2024‏
הטכנולוגיות של Meta מזהות ומסירות את רוב התוכן שמהווה הפרה לפני שמישהו מדווח עליו. כשמשתמשים מפרסמים תוכן בפייסבוק, באינסטגרם, ב-Messenger או ב-Threads, הטכנולוגיות שלנו בודקות אם התוכן מפר את כללי הקהילה. ברוב המקרים הזיהוי הוא פשוט – או שהפוסט מפר באופן ברור את המדיניות שלנו או שהוא אינו מפר אותה.
בחלק מהמקרים הזיהוי מורכב יותר. לפעמים כוונת הפוסט לא ברורה, או שהניסוח מורכב במיוחד או שהתמונה יותר מדי תלויה בהקשר. במקרים האלה אנחנו מעבירים את התוכן להמשך בדיקה על-ידי בני אדם.
גורמי תעדוף לבדיקה על-ידי בני אדם
כאשר אנחנו קובעים איזה תוכן צוותי הבדיקה האנושיים שלנו צריכים לבדוק קודם, אנחנו לוקחים בחשבון 3 גורמים עיקריים:
חומרה
מהי הסבירות שהתוכן יגרום נזק, במרחב המקוון או הפיזי?
ויראליות
באיזה קצב אנשים משתפים את התוכן?
הסבירות להפרה
מהי הסבירות שהתוכן המדובר אכן מפר את המדיניות שלנו?
אנחנו מעוניינים למנוע גרימת נזק עד כמה שניתן, ולכן מערכות הבדיקה שלנו משתמשות בטכנולוגיה כדי לתעדף תוכן ברמת חומרה גבוהה עם פוטנציאל לגרום נזק במרחב הפיזי ותוכן ויראלי שמתפשט במהירות.
צוותי בדיקה אנושיים עוזרים לטכנולוגיה שלנו להשתפר
צוותי הבדיקה האנושיים שלנו משתמשים במומחיות שלהם לגבי מיקומים ותחומי מדיניות מסוימים כדי לקבל החלטות קשות שלעתים קרובות יכולות להיות מורכבות ורגישות. בכל פעם שבה בודקים מקבלים החלטה, אנחנו משתמשים במידע הזה כדי לאמן את הטכנולוגיה שלנו. במשך הזמן, אחרי מיליוני החלטות, הטכנולוגיה שלנו משתפרת ומאפשרת לנו להסיר יותר תוכן שמפר את המדיניות.
סיוע לבודקים לקבל את ההחלטות הנכונות
הטכנולוגיה עוזרת לצוותי הבדיקה האנושיים לעשות את העבודה שלהם בצורה הטובה ביותר
כמו הרבה מודלים של למידת מכונה, הטכנולוגיה שלנו משתפרת במשך הזמן ככל שהיא מקבלת יותר דוגמאות לתוכן שמפר את המדיניות. המשמעות היא שצוותי בדיקה אנושיים יכולים להקדיש יותר תשומת לב לתוכן המתאפיין ברמת חומרה גבוהה או באופי ויראלי, מורכב, חדשני או ייחודי – אלו בדיוק ההחלטות שאנשים מצטיינים בהן יותר מטכנולוגיה.
שאלות נפוצות בנוגע לתעדוף תוכן לבדיקה
בעבר, צוותי בדיקה אנושיים היו מקדישים את רוב זמנם לבדיקת תוכן שמשתמשים דיווחו עליו. המשמעות היא שבחלק גדול מהמקרים הם השקיעו יותר מדי זמן בתוכן עם רמת חומרה נמוכה או בתוכן שבבירור לא הפר את המדיניות, ולא השקיעו מספיק זמן בתוכן ברמת החומרה הגבוהה ביותר עם הפוטנציאל הגבוה ביותר לגרימת נזק. בנוסף, חלק גדול מההחלטות שהתקבלו על-ידי בני אדם לא תרמו לשיפור טכנולוגיית האכיפה שלנו.
גישת התעדוף הנוכחית מטפלת בבעיות האלו. היא מאפשרת לנו לבדוק קודם כל את התוכן עם הפוטנציאל הגבוה ביותר לגרימת נזק, והיא עוזרת לנו לשפר את הטכנולוגיה מהר יותר.
לא בהכרח. דיווחים מהמשתמשים נבדקים גם על ידי צוותי בדיקה אנושיים וגם על ידי הטכנולוגיה. במקרים שבהם הטכנולוגיה שלנו יכולה לנתח תוכן מסוים, היא נוקטת פעולה באופן אוטומטי – או לא נוקטת פעולה – לגבי התוכן הרלוונטי.
כדי לתת מענה לחששות בנוגע ליושרה ולהכללה שקשורים לשימוש ב-AI בטכנולוגיות של Meta, יצרנו צוות שאמון על הנושא של AI אחראי. זהו צוות ייעודי ורב-תחומי של מומחי אתיקה, חוקרים מתחומי הפוליטיקה ומדעי החברה, מומחי מדיניות, חוקרי בינה מלאכותית ומהנדסים. המטרה הכוללת של הצוות היא לפתח הנחיות, כלים ותהליכים שנותנים מענה לבעיות הקשורות לשימוש אחראי ב-AI, ולוודא שהמשאבים המערכתיים האלה זמינים בתפוצה רחבה בממשקים השונים של Meta.