08/03/2021 - 8:22
A julgar por buscador de imagens, brasileiras são sexy e exibicionistas, e ucranianas estão loucas para se casar. Levantamento da DW mostra como a ferramenta reproduz clichês sobre mulheres de certas nacionalidades.Quem quer saber que aparência algo tem, geralmente apela para o Google Images. Como “cara pública” de todas as coisas e pessoas, o serviço deveria ser relativamente neutro. No entanto uma análise da DW de 20 mil imagens e websites revelou uma tendência sexista nos algoritmos do gigante da internet.
Buscas com os termos em inglês “mulheres brasileiras”, “mulheres tailandesas” ou “mulheres ucranianas”, por exemplo, tendem a mostrar como resultados mais imagens de mulheres jovens em poses provocantes e com pouca roupa do que buscas com o termo “mulheres americanas”. De forma semelhante, após uma busca por “mulheres alemãs” se verão mais fotos de políticas e atletas, em contraste com numerosas dominicanas ou brasileiras em trajes de banho e poses sensuais.
O padrão é perceptível a olho nu, bastando fazer uma simples busca. Quantificar e analisar os resultados, contudo, é mais complicado, já que a definição do que torna uma imagem sexualmente provocante é subjetiva e propensa a preconceitos culturais, morais e sociais.
Cloud Vision, uma caixa-preta
Para classificar milhares de fotos, a análise da DW se baseou no próprio Cloud Vision SafeSearch da Google, um programa de visão computadorizada treinado para detectar imagens contendo elementos sexuais ou potencialmente ofensivos. Mais especificamente, ele foi usado para marcar imagens potencialmente sexualizadas.
Segundo a definição da própria empresa, tais imagens “podem incluir (mas não são limitadas a) vestuário sumário ou transparente, nudez estrategicamente coberta, poses lascivas ou provocadoras, ou close-ups de áreas sensíveis do corpo”.
Em países como a República Dominicana ou o Brasil, mais de 40% das fotos encontradas têm probabilidade de ser sexualizadas, enquanto para mulheres americanas ou alemãs a percentagem é de 4% ou 5%, respectivamente.
O emprego de tais algoritmos de visão computadorizada é controverso, já que esse tipo de programa é sujeito a tantos vieses e limitações culturais quanto um usuário humano, ou mais. Tem-se constatado que esse software específico também apresenta, por exemplo, resultados racistas.
Já que o Cloud Vision funciona basicamente como uma caixa-preta, há mais espaço para vieses se infiltrarem. Mesmo assim, uma análise manual dos resultados permite vislumbrar como a tecnologia da própria Google classifica as imagens propostas pela ferramenta de busca.
Algumas nacionalidades são mais sexy do que outras
Cada imagem apresentada na página de resultados é acompanhada de um link para o site original. Mesmo sem que as fotos classificadas como “picantes” ou “ousadas” fossem abertamente sexuais, muitas dessas páginas publicam conteúdo que inegavelmente objetifica e estereotipa não só latino-americanas como também originárias do Leste Europeu e do Sudeste Asiático.
Para determinar quantos resultados levavam a esse tipo de sites, rastreou-se a breve descrição abaixo das imagem na galeria de buscas por palavras como “casar”, “namoro”, “sexo” ou “mais quente”. Conferiram-se todos os sites contendo pelo menos um desses termos para ver se continham mesmo o tipo de temática sexista ou objetificadora sugerida.
Os resultados mostraram como as originárias de certos países são praticamente reduzidas a objetos sexuais: dos primeiros 100 resultados da busca por “ucranianas”, 61 estavam ligados a esse tipo de conteúdo.
A mesma tendência se constatou em relação a mulheres da República Tcheca, Moldova, Romênia, ou de nações da América do Sul e Sudeste Asiático.
Essa objetificação é muito mais rara para as nacionalidades da Europa Ocidental: de 100 resultados para “alemãs” (sempre na busca em inglês), apenas 16% apresentavam as palavras-chave sexistas; para “francesas”, a taxa foi de 6%.
Reflexos do mundo real
Entretanto as palavras-chave não contam toda a história: parte significativa dos resultados levou a sites com endereços contendo “brides” (noivas), como toprussianbrides.com, hotlatinbrides.org e topasiabrides.net.
A maioria alega ser agências internacionais de matrimônio, ou serviços de “noivas por encomenda postal”, prometendo conectar homens com mulheres de nacionalidades específicas mediante o pagamento de uma taxa. Outras oferecem guias estereotipados de como namorar mulheres de determinadas culturas, além de críticas de aplicativos de nicho para encontros.
Olhando de perto, contudo, fica claro que seu público-alvo são homens ocidentais procurando uma esposa ou parceira sexual estrangeira e submissa. “Se você lidou mais com mulheres ocidentais, conhecidas por perseguir suas carreiras, então vai sentir bem diferente um relacionamento com uma noiva ucraniana”, promete um site destacado entre os primeiros resultados do Google.
Tamara Zlobina, editora-chefe da revista ucraniana Gender in Detail, deduz que esse tipo de descrição parte de um fenômeno comum no país, nos anos 90: “Depois do colapso da União Soviética, a Ucrânia era um país extremamente pobre. Muitas mulheres partiram para o Oeste da Europa para tentar sustentar suas famílias.”
No entanto essa realidade está mudando rapidamente, à medida que melhora a situação econômica do país, e com ela a educação e perspectivas profissionais das ucranianas, frisa Zlobina. “Eu preferiria ver diplomatas, políticas, revolucionárias, as que estão lutando nas nossas guerras de fronteiras. Temos um monte de mulheres maravilhosas. Devíamos ver isso, e não só esse mercado de noivas.”
Segundo Sirijit Sunanta, docente de Estudos Multiculturais da Universidade Mhidol, em Bangkok, clichês do mundo real também afetam a maneira como as tailandesas são apresentadas na internet.
“A Tailândia é vista como uma espécie de Disneylândia da prostituição e turismo sexual. Isso também se transporta para a internet, quando se faz uma busca no Google. Quando os estereótipos são sobre mulheres de uma determinada nacionalidade, eles são nocivos num outro nível: isso reduz a complexidade delas, as mulheres são diferentes em cada lugar.”
Questão de idioma
O problema tem ainda uma dimensão essencialmente linguística: comparando os resultados das buscas em inglês e português, há uma diferente gritante na quantidade de conteúdo sexualizado. Na busca por “Brazilian women”, 41 das primeiras 100 imagens foram classificadas pelo Google como “racy” (sexuais), contra apenas nove para “mulheres brasileiras”.
“Os dados que alimentam os algoritmos refletem percepções, vieses e padrões de consumo de uma parcela limitada da humanidade”, analisa a guatemalteca Renata Avila, pesquisadora associada de raça e tecnologia do Instituto de Inteligência Artificial Centrada em Humanos da Universidade de Stanford.
“Não é surpresa que máquinas de busca repliquem tendências que não são exclusivas da tecnologia, mas sim culturais: mulheres de certas nacionalidades são engessadas em papéis sexuais e de serviços por uma cultura masculina anglófona.”
Especialistas tendem a concordar que não há casos isolados nessa questão: tudo é parte de um problema mais profundo, mais sistêmico. Avila crê que algoritmos mais justos são incompatíveis com o atual modelo de negócios das companhias de big tech, principalmente centrado na coleta de dados em massa e em incrementar o consumo de informação.
Algoritmos responsáveis e transparentes
A posição de Joana Varon, fundadora do think tank Coding Rights, é semelhante: ferramentas de busca tendem a reproduzir o tipo de conteúdo que está amplamente disponível online, e homens brancos de países industriais têm mais acesso às ferramentas e estratégias que visam aumentar o tráfego nos sites de internet.
“Se um algoritmo não fizer nada para compensar, então a maior parte vai ser racista, sexista, patriarcal.” Assim, “algoritmos comerciais e seus provedores deveriam ser responsabilizados pelo que mostram, já que estão reforçando uma visão de mundo opressora, numa ferramenta de busca que se tornou universal”, diz.
Uma possível saída para a situação deveria envolver mais supervisão, transparência e competição: “Não deveríamos ter monopólios gigantescos fornecendo todos os serviços. Companhias big tech deveriam ser reguladas, mas também precisamos encorajar ferramentas alternativas que não partam do mesmo paradigma que elas.”
Avila concorda: “Há necessidade de um outro modo de fazer tecnologia. Um dos pontos de partida, basicamente incompatível com a visão do Silicon Valley, é transparência e responsabilidade.” A pesquisadora defende que novas soluções sejam desenvolvidas com a participação ativa de comunidades diversas, globais.
O que diz a Google
A DW enviou ao serviço de imprensa da Google uma lista de perguntas sobre o comportamento tendencioso de seu algoritmo de busca de imagens, mas a companhia não as respondeu em detalhe.
Em vez disso, emitiu uma declaração reconhecendo que as buscas realmente mostram “conteúdo explícito ou perturbador […] incluindo resultados que refletem estereótipos negativos ou preconceitos existentes na rede”, um problema que “impacta desproporcionalmente mulheres, também de cor”.
A presença desse tipo de conteúdo nas buscas é afetado pela forma como a informação é organizada e rotulada na internet, prossegue a Google, afirmando que está trabalhando para encontrar “soluções em escalas diversas” para tais questões, sem expô-las em detalhe.