24/01/2020 - 10:01
A Microsoft desenvolveu um sistema automatizado para identificar quando predadores sexuais estão tentando se relacionar com crianças em salas de bate-papo de videogames e aplicativos de mensagens. A ferramenta, denominada Project Artemis, foi projetada para detectar padrões de comunicação nas conversas. Se esses padrões forem detectados, o sistema sinaliza a conversa para um revisor de conteúdo, que decide se deve entrar em contato com a polícia.
Courtney Gregoire, diretora de segurança digital da Microsoft, responsável pela supervisão do projeto, disse em um post no blog que Artemis foi um “avanço significativo”, mas “de modo algum uma panaceia”.
Com base em palavras e padrões de fala, o sistema atribui uma classificação para a probabilidade de um dos participantes estar tentando cuidar do outro. As empresas que implementam a técnica podem definir uma pontuação acima da qual qualquer conversa sinalizada é enviada a um moderador humano para revisão. Os moderadores podem identificar ameaças iminentes e denunciá-las à polícia. Também forneceria aos especialistas em proteção infantil mais informações sobre como os pedófilos operam online.
LEIA TAMBÉM: Ver pornografia faz o cérebro regredir a um estado mais juvenil
Licenciamento gratuito
“A exploração e o abuso sexual de crianças online e a detecção de cuidados com crianças online são problemas pesados”, afirmou Gregoire. “Mas não somos intimidados pela complexidade de tais questões.”
Depois de testar o Artemis no Xbox Live e o recurso de bate-papo do Skype, a Microsoft passou a licenciar a ferramenta gratuitamente para outras empresas, a partir de 10 de janeiro, por meio da organização sem fins lucrativos Thorn, que cria ferramentas para impedir a exploração sexual de crianças.
A Microsoft não explicou as palavras ou padrões precisos pelos quais a ferramenta faz a busca, pois isso poderia levar os pedófilos a ajustar seu comportamento para tentar mascarar suas atividades.
É provável que o sistema gere muitos falsos positivos, pois os sistemas automatizados ainda lutam para entender o significado e o contexto da linguagem. As empresas de mídia social, desse modo, precisarão investir em mais moderadores se estiverem realmente comprometidas com o tratamento online. O sistema também pressupõe que as mensagens não são criptografadas e que os usuários consentem que suas comunicações privadas sejam lidas, algo que não é necessariamente verdadeiro.