Hogyan választja ki a Meta az ellenőrizendő tartalmakat?
FRISSÍTVE 2024. NOV. 12.
Máskor az azonosítás ennél nehezebb. Lehet, hogy a bejegyzésnek nem egyértelmű az érzelmi töltete, különösen bonyolult a nyelvezete, vagy éppen nagyon kontextusfüggő a képanyaga. Ezekben az esetekben további ellenőrzést végzünk emberi erővel.
Az emberi ellenőrzésre való kiválasztás főbb szempontjai
A csapataink által végzett emberi ellenőrzésre prioritásként való kiválasztáshoz 3 fő tényezőt veszünk figyelembe:
SÚLYOSSÁG
Mennyire valószínű, hogy a tartalom képes lenne károkozáshoz vezetni mind online, mind offline?
VÍRUSSZERŰ TERJEDÉS
Milyen gyors ütemben történik a tartalom megosztása?
SZABÁLYSÉRTÉS VALÓSZÍNŰSÉGE
Mennyire valószínű, hogy a szóban forgó tartalom ténylegesen megszegi a szabályainkat?
Emberi ellenőrzést végző csoportunk segíti a technológia fejlődését
Emberi ellenőrzést végző csoportjaink a különböző szabályzati témákkal és földrajzi területekkel kapcsolatos szakértelmükre támaszkodva hozzák meg a nehéz, gyakran árnyalt döntéseket. Amikor az ellenőrzést végző munkatársaink meghoznak egy-egy döntést, azokat mindig felhasználjuk a technológiánk tanítására. Döntések milliói nyomán idővel a technológiánk még jobb lesz, és több szabálysértő tartalom eltávolítását biztosítja majd.
Az ellenőrzést végzők segítése a megfelelő döntések meghozatalában
A technológia segít, hogy az emberi ellenőrzést végző csoportjaink azzal foglalkozzanak, amiben a legjobbak.
Sok más gépi tanulásos modellhez hasonlóan a mi technológiánk is fejlődik az idő előrehaladtával, ahogy egyre több szabálysértő tartalomra kap példákat. Emberi ellenőrzést végző csoportjaink így több időt fordíthatnak a súlyos, virális, árnyalt, újszerű és komplex tartalmakra, vagyis pontosan azokra a döntésekre, amelyeknél az emberek általában jobb döntéseket hoznak a technológiánál.
Gyakori kérdések az ellenőrzésre előbbre sorolt tartalmakról
Hogyan változott idővel a szabályok betartatásával kapcsolatos döntések priorizálása?
Emberi ellenőrzést végző csoportjaink korábban idejük nagy részét az emberek által jelentett tartalmak ellenőrzésére fordították. Ez azt jelentette, hogy gyakran túl sok időt töltöttek kisebb súlyosságú vagy egyértelműen nem szabályszegő tartalmak ellenőrzésével, és nem maradt elegendő idejük a legnagyobb károkozási potenciált hordozó, legsúlyosabban szabálysértő tartalmakra. Ez azzal is járt, hogy számos emberi döntés nem volt hasznos a szabálybetartatási technológiánk fejlesztéséhez.
Jelenlegi priorizálási megközelítésünk kezeli ezeket a problémákat, és lehetővé teszi számunkra, hogy elsőként a potenciálisan leginkább káros tartalmakat ellenőrizzük, és gyorsabban fejlesszük a technológiánkat.
Az emberi ellenőrzést végző csoportok minden felhasználói bejelentést megvizsgálnak?
Nem feltétlenül. A felhasználói bejelentések kivizsgálásában mind emberi ellenőrzést végző csoportjaink, mind technológiánk szerepet kap. Ha a technológiánk elemezni tud egy tartalomelemet, automatikusan megteszi – vagy nem teszi meg – a lépéseket a szóban forgó tartalommal kapcsolatban.
Hogyan biztosítja a Meta, hogy az emberi döntések ne okozzanak részrehajlást a technológiában?
A mesterséges intelligencia (AI) Meta-technológiákban való alkalmazásához kapcsolódó igazságossági és inkluzivitási aggályokra reagálva létrehoztuk Felelős AI csapatunkat, egy olyan dedikált, multidiszciplináris csapatot, amely etikai szakemberekből, szociológusokból és politológusokból, szabályozási szakértőkből, AI-kutatókból és mérnökökből áll. A csapat központi célja olyan irányelvek, eszközök és folyamatok kidolgozása, amelyek feloldják a mesterséges intelligencia felelősségével kapcsolatos problémákat, és biztosítják, hogy ezek a rendszerszintű erőforrások széles körben elérhetőek legyenek szerte a Metánál.