Como a tecnologia ajuda a definir a prioridade na revisão
ATUALIZADO 19/01/2022
Quer os conteúdos que possam estar em infração sejam denunciados por pessoas ou detetados pela tecnologia da Meta, a automatização ajuda-nos a encaminhá-los rapidamente para os revisores que têm a especialidade e os conhecimentos linguÃsticos adequados.
Em seguida, utilizamos tecnologia para classificar e definir a prioridade dos conteúdos, para que as nossas equipas de revisão se possam concentrar nos casos mais importantes em primeiro lugar. Os conteúdos mais importantes são aqueles com o potencial de provocar danos offline (como publicações relacionadas com o terrorismo e o suicÃdio) e conteúdos virais que desrespeitam as nossas polÃticas e podem alcançar um público maior.
Para nos certificarmos de que as equipas de revisão utilizam a maioria do seu tempo para tomar decisões acertadas, estamos constantemente a fazer melhorias à nossa tecnologia e aos nossos processos.
Porque é que as equipas de revisão são importantes para a aplicação das regras de conteúdos
Para reduzir os danos na comunidade do Facebook, a nossa tecnologia e as nossas equipas de revisão humana estão sempre a trabalhar em conjunto. Seguem-se algumas formas como os revisores, em colaboração com a tecnologia, ajudam a reforçar o nosso sistema de aplicação das regras de conteúdos.
Preparar a nossa tecnologia
Quando os revisores tomam uma decisão sobre um determinado conteúdo, estão simultaneamente a preparar e aperfeiçoar a nossa tecnologia para que esta identifique outros conteúdos semelhantes ao longo do tempo. Este ciclo de feedback entre a revisão humana e a tecnologia é essencial para manter os nossos sistemas atualizados.
Melhorar os nossos algoritmos de inteligência artificial
Ao rever conteúdos em infração, as equipas de revisão identificam manualmente as polÃticas que baseiam as suas decisões, o que significa que assinalam as polÃticas desrespeitadas pelos conteúdos, pelas contas ou pelos comportamentos. Estes dados de identificação ajudam-nos a melhorar a qualidade dos nossos algoritmos de inteligência artificial que pesquisam conteúdos prejudiciais proativamente.
Tomar decisões difÃceis
A nossa tecnologia é particularmente eficaz em duas áreas: a deteção de infrações repetidas e a identificação de conteúdos claramente gráficos ou extremos. No entanto, quando há um elevado grau de ambiguidade, complexidade ou detalhe sobre a aplicação das nossas polÃticas a um determinado conteúdo, os revisores tendem a tomar melhores decisões do que a tecnologia.