Cara Meta melatih teknologi

DIPERBARUI 19 JAN 2022
Terkadang, makna dari sebuah konten sangat jelas bagi seseorang tetapi kurang jelas bagi teknologi. Untuk menjaga keamanan, Meta perlu melatih kecerdasan buatan tentang cara mendeteksi postingan yang melanggar.
Misalnya, konten berikut menggabungkan teks dan gambar. Dua dari gambar tersebut terkesan positif; dan 2 lainnya berpotensi memberi kesan negatif.
how we train
Tanpa pelatihan yang tepat, sebagian besar AI kesusahan melihat perbedaan ini. AI hanya membaca teks dan menentukan makna harfiah dari kata, atau melihat gambar untuk menentukan makna umum dari subjek foto. Di sisi lain, biasanya, orang-orang akan memasangkan teks dan gambar untuk dapat memahami konten.
Salah satu cara kami mengatasi hal tersebut adalah dengan melatih teknologi kami untuk terlebih dahulu melihat semua komponen postingan kemudian menentukan makna yang sebenarnya. Cara ini sangat membantu AI mendeteksi dengan lebih akurat pemahaman orang-orang saat melihat postingan yang sama.
Kami juga menggunakan sistem yang memandu AI untuk belajar secara langsung dari jutaan konten terkini dan membantu memilih data pelatihan yang mencerminkan tujuan kami. Cara ini berbeda dari sistem AI biasa yang mengandalkan data tetap untuk pelatihan. Menggunakan metode ini membantu kami melindungi orang secara lebih baik dari ungkapan kebencian dan konten yang mendorong kekerasan.
Ada banyak hal yang perlu kami tingkatkan, tetapi pelatihan ini membantu teknologi kami terus berkembang dan lebih memahami makna sebenarnya dari konten multimodal.