איך Meta מתעדפת תוכן לבדיקה
מעודכן 12 בנוב' 2024
בחלק מהמקרים הזיהוי מורכב יותר. לפעמים כוונת הפוסט לא ברורה, או שהניסוח מורכב במיוחד או שהתמונה יותר מדי תלויה בהקשר. במקרים האלה אנחנו מעבירים את התוכן להמשך בדיקה על-ידי בני אדם.
גורמי תעדוף לבדיקה על-ידי בני אדם
כאשר אנחנו קובעים איזה תוכן צוותי הבדיקה האנושיים שלנו צריכים לבדוק קודם, אנחנו לוקחים בחשבון 3 גורמים עיקריים:
חומרה
מהי הסבירות שהתוכן יגרום נזק, במרחב המקוון או הפיזי?
ויראליות
באיזה קצב אנשים משתפים את התוכן?
הסבירות להפרה
מהי הסבירות שהתוכן המדובר אכן מפר את המדיניות שלנו?
צוותי בדיקה אנושיים עוזרים לטכנולוגיה שלנו להשתפר
צוותי הבדיקה האנושיים שלנו משתמשים במומחיות שלהם לגבי מיקומים ותחומי מדיניות מסוימים כדי לקבל החלטות קשות שלעתים קרובות יכולות להיות מורכבות ורגישות. בכל פעם שבה בודקים מקבלים החלטה, אנחנו משתמשים במידע הזה כדי לאמן את הטכנולוגיה שלנו. במשך הזמן, אחרי מיליוני החלטות, הטכנולוגיה שלנו משתפרת ומאפשרת לנו להסיר יותר תוכן שמפר את המדיניות.
סיוע לבודקים לקבל את ההחלטות הנכונות
הטכנולוגיה עוזרת לצוותי הבדיקה האנושיים לעשות את העבודה שלהם בצורה הטובה ביותר
כמו הרבה מודלים של למידת מכונה, הטכנולוגיה שלנו משתפרת במשך הזמן ככל שהיא מקבלת יותר דוגמאות לתוכן שמפר את המדיניות. המשמעות היא שצוותי בדיקה אנושיים יכולים להקדיש יותר תשומת לב לתוכן המתאפיין ברמת חומרה גבוהה או באופי ויראלי, מורכב, חדשני או ייחודי – אלו בדיוק ההחלטות שאנשים מצטיינים בהן יותר מטכנולוגיה.
שאלות נפוצות בנוגע לתעדוף תוכן לבדיקה
איך תעדוף האכיפה השתנה במשך הזמן?
בעבר, צוותי בדיקה אנושיים היו מקדישים את רוב זמנם לבדיקת תוכן שמשתמשים דיווחו עליו. המשמעות היא שבחלק גדול מהמקרים הם השקיעו יותר מדי זמן בתוכן עם רמת חומרה נמוכה או בתוכן שבבירור לא הפר את המדיניות, ולא השקיעו מספיק זמן בתוכן ברמת החומרה הגבוהה ביותר עם הפוטנציאל הגבוה ביותר לגרימת נזק. בנוסף, חלק גדול מההחלטות שהתקבלו על-ידי בני אדם לא תרמו לשיפור טכנולוגיית האכיפה שלנו.
גישת התעדוף הנוכחית מטפלת בבעיות האלו. היא מאפשרת לנו לבדוק קודם כל את התוכן עם הפוטנציאל הגבוה ביותר לגרימת נזק, והיא עוזרת לנו לשפר את הטכנולוגיה מהר יותר.
האם צוותי בדיקה אנושיים בודקים כל דיווח מהמשתמשים?
לא בהכרח. דיווחים מהמשתמשים נבדקים גם על ידי צוותי בדיקה אנושיים וגם על ידי הטכנולוגיה. במקרים שבהם הטכנולוגיה שלנו יכולה לנתח תוכן מסוים, היא נוקטת פעולה באופן אוטומטי – או לא נוקטת פעולה – לגבי התוכן הרלוונטי.
איך אתם דואגים לכך שהחלטות אנושיות לא גורמות להטיית החלטות הטכנולוגיה?
כדי לתת מענה לחששות בנוגע ליושרה ולהכללה שקשורים לשימוש ב-AI בטכנולוגיות של Meta, יצרנו צוות שאמון על הנושא של AI אחראי. זהו צוות ייעודי ורב-תחומי של מומחי אתיקה, חוקרים מתחומי הפוליטיקה ומדעי החברה, מומחי מדיניות, חוקרי בינה מלאכותית ומהנדסים. המטרה הכוללת של הצוות היא לפתח הנחיות, כלים ותהליכים שנותנים מענה לבעיות הקשורות לשימוש אחראי ב-AI, ולוודא שהמשאבים המערכתיים האלה זמינים בתפוצה רחבה בממשקים השונים של Meta.