Cara kerja teknologi penegakan

DIPERBARUI 12 NOV 2024
Meta menggunakan teknologi untuk menegakkan Standar Komunitas. Tim kami bekerja sama untuk menciptakan dan melatih teknologi. Berikut cara kerjanya.
Menciptakan model dan membuat prediksi
Proses ini dimulai dengan tim kecerdasan buatan kami. Mereka menciptakan model pembelajaran mesin yang dapat melakukan tugas, seperti mengenali apa yang ada di dalam foto atau memahami teks. Kemudian, tim integritas kami—yang bertanggung jawab atas peningkatan deteksi dan penegakan kebijakan kami—mengembangkan model -model ini untuk menciptakan model yang lebih spesifik yang dapat membuat prediksi tentang orang dan konten. Prediksi ini membantu kami menegakkan kebijakan kami.
Misalnya, model AI memprediksi apakah suatu konten merupakan ujaran kebencian atau konten kekerasan dan sadis. Sistem terpisah—teknologi penegakan kami—menentukan apakah tindakan akan diambil, seperti menghapus, menurunkan, atau mengirim konten ke tim peninjauan manusia untuk peninjauan lebih lanjut.
Belajar melalui pengulangan, diverifikasi oleh manusia
Saat pertama kali menciptakan teknologi untuk penegakan konten, kami melatihnya untuk mencari sinyal tertentu. Misalnya, beberapa teknologi mencari ketelanjangan di dalam foto, sementara teknologi lain belajar memahami teks. Pada awalnya, jenis teknologi baru mungkin memiliki kepercayaan yang rendah tentang apakah suatu konten melanggar kebijakan kami.
Tim peninjauan kemudian dapat mengambil keputusan akhir, dan teknologi kami dapat belajar dari setiap keputusan manusia. Seiring berjalannya waktu—setelah belajar dari ribuan keputusan manusia—teknologi tersebut menjadi lebih akurat.
Kebijakan kami juga berkembang dari waktu ke waktu untuk mengikuti perubahan dalam produk kami, norma sosial, dan bahasa. Oleh karena itu, melatih teknologi dan tim peninjauan kami merupakan proses yang bertahap dan berulang.
Mendeteksi pelanggaran berulang
Teknologi sangat baik dalam mendeteksi konten yang sama berulang kali—jutaan kali, jika perlu. Teknologi kami akan mengambil tindakan terhadap konten baru jika konten tersebut cocok atau sangat mirip dengan konten lain yang melanggar. Hal ini sangat membantu untuk kampanye misinformasi viral, meme, dan konten lain yang dapat menyebar dengan sangat cepat.
Membuat perbedaan yang halus
Teknologi dapat menemukan dan menghapus konten yang sama berulang kali. Namun, membuat mesin memahami nuansa dalam pilihan kata atau bagaimana perbedaan kecil dapat mengubah konteks adalah tantangan yang besar.
Misleading content 1
Gambar pertama adalah konten menyesatkan yang asli, yang berisi misinformasi tentang keselamatan kesehatan masyarakat.
Misleading content 2
Gambar kedua adalah cuplikan layar gambar pertama, kali ini dengan bilah menu komputer di bagian atas.
Misleading content 3
Terakhir, gambar ketiga terlihat sangat mirip dengan gambar pertama dan kedua, tetapi memiliki 2 perubahan kata kecil yang menjadikan judulnya akurat dan tidak lagi salah.
Ini cukup mudah dipahami oleh manusia, tetapi sulit bagi teknologi untuk memahaminya dengan benar. Ada risiko terlalu condong ke satu sisi atau sisi lainnya. Jika terlalu agresif, teknologi akan menghapus jutaan postingan yang tidak melakukan pelanggaran. Jika tidak cukup agresif, teknologi akan menganggap bahwa cuplikan layar dengan bilah menu berbeda dari yang asli, dan akan gagal mengambil tindakan terhadap konten tersebut.
Kami menghabiskan banyak waktu untuk mengerjakan ini. Selama beberapa tahun terakhir, kami melakukan beberapa investasi untuk membantu teknologi kami menjadi lebih baik dalam mendeteksi perbedaan halus di dalam konten. Teknologi tersebut menjadi lebih tepat setiap hari selagi terus belajar.
Subtile distinctions