בניית מודלים והכנת תחזיות
התהליך מתחיל עם צוותי הבינה המלאכותית שלנו. הם בונים מודלים של למידת מכונה שמסוגלים לבצע משימות, כגון זיהוי פריטים שמוצגים בתמונות או הבנת טקסט. לאחר מכן, צוותי היושרה שלנו – שאחראים על היקף האיתור והאכיפה של המדיניות שלנו – נעזרים במודלים האלה כדי ליצור מודלים ספציפיים יותר שיוצרים תחזיות לגבי אנשים ותוכן. התחזיות האלה עוזרות לנו לאכוף את המדיניות שלנו. לדוגמה, מודל AI חוזה שתוכן כלשהו מכיל דברי שטנה או תוכן אלים וגרפי. מערכת נפרדת – טכנולוגיית האכיפה שלנו – קובעת אם לנקוט פעולה, כגון מחיקה, הורדה בדרגה או שליחת התוכן לצוות בדיקה אנושי לבחינה נוספת.
למידה באמצעות חזרה, באימות אנושי
כאשר אנחנו בונים בפעם הראשונה טכנולוגיה לאכיפת תוכן, אנחנו מכשירים אותה לחפש אחר אותות מסוימים. לדוגמה, טכנולוגיות מסוימות מחפשות אחר עירום בתמונות, בעוד שטכנולוגיות אחרות לומדות להבין טקסט. בהתחלה, לסוג החדש של הטכנולוגיה יש מהימנות נמוכה מבחינת איתור תוכן שמפר את המדיניות שלנו.
צוותי בדיקה יכולים לקבל את ההחלטה הסופית, והטכנולוגיה יכולה ללמוד מכל החלטה אנושית. עם הזמן – לאחר שהיא לומדת מאלפי החלטות אנושיות – הטכנולוגיה הופכת למדויקת יותר.
גם המדיניות שלנו מתפתחת עם הזמן כדי לעמוד בקצב השינויים במוצרים, בנורמות החברתיות ובשפה. כתוצאה מכך, הכשרת הטכנולוגיות וצוותי הבדיקה שלנו היא תהליך הדרגתי וחזרתי.
איתור הפרות חוזרותלטכנולוגיה יש את היכולת לזהות את אותו התוכן שוב ושוב – מיליוני פעמים, במידת הצורך. הטכנולוגיה שלנו תפעל לגבי תוכן חדש אם הוא תואם לתוכן מפר אחר או קרוב לכך מאוד. זה מועיל במיוחד להתמודדות עם קמפיינים, ממים ופריטי תוכן אחרים שכוללים מידע מטעה, שיכולים להתפשט במהירות רבה.