Vytváření modelů a předpovědí
Proces začíná u našich týmů pro umělou inteligenci. Vytváří modely strojového učení, které umí provádět různé úkoly, třeba rozpoznat, co je na fotce, nebo porozumět textu. Naše týmy pro integritu – které mají na starosti rozšiřování detekce a prosazování našich zásad – pak na základě uvedených modelů vytvářejí konkrétnější modely, které umí předpovídat, jak se lidé a obsah budou chovat. Předpovědi nám pomáhají prosazovat naše zásady. Model AI například předpovídá, jestli se nejedná o nenávistný projev nebo realisticky vyobrazený násilný obsah. Samostatný systém – naše technologie prosazování předpisů – rozhodne, jestli přikročí k opatřením, jako je odstranění, degradace nebo předání obsahu ke kontrole člověkem.
Učení opakováním, ověření člověkem
Když vytváříme novou technologii pro prosazování předpisů z hlediska obsahu, učíme ji, aby hledala určité signály. Některé technologie například hledají nahotu na fotkách, zatímco jiné se učí porozumět textu. Zpočátku může nový typ technologie vykazovat jen nízkou spolehlivost při určování, jestli obsah porušuje naše zásady.
Poslední slovo pak mají týmy pro kontrolu a naše technologie se učí z každého lidského rozhodnutí. V průběhu času se technologie na základě tisíců lidských rozhodnutí stává přesnější.
Naše zásady se taky časem mění, aby držely krok s vývojem našeho produktu, společenskými normami a jazykovými změnami. Proto je učení technologie i týmů pro kontrolu postupné a iterativní.
Detekce opakovaných porušeníTechnologie dokážou skvěle odhalovat pořád dokola se objevující obsah – v případě potřeby i milionkrát. Naše technologie provedou akci u nového obsahu, pokud se shoduje nebo se hodně podobá jinému obsahu, který porušuje zásady. To je obzvlášť užitečné v případě virálních dezinformačních kampaní, memů a dalšího obsahu, který se může šířit mimořádně rychle.