איך פועלת טכנולוגיית האכיפה
מעודכן 12 בנוב' 2024
בניית מודלים והכנת תחזיות
התהליך מתחיל עם צוותי הבינה המלאכותית שלנו. הם בונים מודלים של למידת מכונה שמסוגלים לבצע משימות, כגון זיהוי פריטים שמוצגים בתמונות או הבנת טקסט. לאחר מכן, צוותי היושרה שלנו – שאחראים על היקף האיתור והאכיפה של המדיניות שלנו – נעזרים במודלים האלה כדי ליצור מודלים ספציפיים יותר שיוצרים תחזיות לגבי אנשים ותוכן. התחזיות האלה עוזרות לנו לאכוף את המדיניות שלנו.
לדוגמה, מודל AI חוזה שתוכן כלשהו מכיל דברי שטנה או תוכן אלים וגרפי. מערכת נפרדת – טכנולוגיית האכיפה שלנו – קובעת אם לנקוט פעולה, כגון מחיקה, הורדה בדרגה או שליחת התוכן לצוות בדיקה אנושי לבחינה נוספת.
למידה באמצעות חזרה, באימות אנושי
כאשר אנחנו בונים בפעם הראשונה טכנולוגיה לאכיפת תוכן, אנחנו מכשירים אותה לחפש אחר אותות מסוימים. לדוגמה, טכנולוגיות מסוימות מחפשות אחר עירום בתמונות, בעוד שטכנולוגיות אחרות לומדות להבין טקסט. בהתחלה, לסוג החדש של הטכנולוגיה יש מהימנות נמוכה מבחינת איתור תוכן שמפר את המדיניות שלנו.
צוותי בדיקה יכולים לקבל את ההחלטה הסופית, והטכנולוגיה יכולה ללמוד מכל החלטה אנושית. עם הזמן – לאחר שהיא לומדת מאלפי החלטות אנושיות – הטכנולוגיה הופכת למדויקת יותר.
גם המדיניות שלנו מתפתחת עם הזמן כדי לעמוד בקצב השינויים במוצרים, בנורמות החברתיות ובשפה. כתוצאה מכך, הכשרת הטכנולוגיות וצוותי הבדיקה שלנו היא תהליך הדרגתי וחזרתי.
איתור הפרות חוזרותלטכנולוגיה יש את היכולת לזהות את אותו התוכן שוב ושוב – מיליוני פעמים, במידת הצורך. הטכנולוגיה שלנו תפעל לגבי תוכן חדש אם הוא תואם לתוכן מפר אחר או קרוב לכך מאוד. זה מועיל במיוחד להתמודדות עם קמפיינים, ממים ופריטי תוכן אחרים שכוללים מידע מטעה, שיכולים להתפשט במהירות רבה.
הבחנות דקות
הטכנולוגיה יכולה לאתר ולהסיר את אותו התוכן שוב ושוב. אבל לא קל לגרום למכונה להבין דקויות מבחינת בחירת מילים או איך הבדלים קטנים עשויים לשנות את ההקשר.
התמונה הראשונה היא התוכן המטעה המקורי, שכולל מידע מטעה בנושא בטיחות של בריאות הציבור.
התמונה השנייה היא צילום מסך של התמונה הראשונה, והפעם עם שורת התפריטים של המחשב בחלק העליון.
לבסוף, התמונה השלישית נראית דומה מאוד לתמונה הראשונה והשנייה, אבל יש בה שני שינויים מילוליים קטנים שהופכים את הכותרת למדויקת, כך שהיא כבר לא מטעה.
בני אדם יבינו זאת בקלות, אבל לטכנולוגיה יהיה קשה לפרש את זה נכון. קיים סיכון לטעות כך או אחרת. אם הטכנולוגיה אגרסיבית מדי, היא תסיר מיליוני פוסטים שאינם מפרים את הכללים. אם היא לא אגרסיבית מספיק, היא תחשוב שצילום המסך עם שורת התפריטים שונה מהמקור, ולא תנקוט פעולה לגבי התוכן.
אנחנו משקיעים זמן רב בנושא הזה. במהלך השנים האחרונות, ביצענו כמה השקעות כדי לעזור לטכנולוגיה שלנו להשתפר בזיהוי הבחנות דקות בתוכן. היא נעשית מדויקת יותר ויותר מדי יום, ככל שהיא ממשיכה ללמוד.