06/07/2025 - 13:23
Conteúdo com rostos criados por IA busca audiência e monetização, e levanta discussões sobre ética e discriminação. Especialistas reforçam que prática só aumenta o estigma em relação às pessoas com a condição.Vídeos com frases como “Você namoraria uma garota com síndrome de Down?” ou “Ter síndrome de Down é um problema para você?” têm circulado pelas redes sociais nos últimos meses. Em muitos deles, mulheres jovens aparecem com feições alteradas por inteligência artificial, trajes sensuais e, em alguns casos, vestindo roupas com a bandeira do Brasil.
Essas imagens não retratam pessoas reais. São rostos criados por inteligência artificial (IA) ou filtros com o objetivo de atrair atenção, engajamento e seguidores. O conteúdo, em geral, serve como “isca” para direcionar o público a perfis pagos na plataforma Only Fans, onde é oferecido material de teor sexual.
A prática, que já é observada fora do país e tem ganhado espaço também no Brasil, levanta preocupações sobre fetichização e uso desumanizante de características associadas à deficiência intelectual para fins comerciais. Alguns vídeos já foram banidos de plataformas como o TikTok, mas conteúdo semelhante continua circulando na rede social.
A influenciadora digital Cacai Bauer, que tem síndrome de Down, criticou o uso indevido dessas imagens. “Estamos vivendo um momento perigoso, onde a tecnologia está sendo usada para reforçar estigmas e alimentar fantasias desumanas”, escreveu ela em seu perfil no TikTok, com mais de dois milhões de seguidores. “Corpos com deficiência não são fantasia, não são fetiche, não são curiosidade. Somos pessoas com identidade, história, desejos e limites”, acrescentou.
IA cria rosto “que engaja”
O que começou como um conteúdo marginalizado, marcado por reações de repulsa e denúncia, logo se transformou em estratégia replicada por dezenas de pessoas. Segundo especialistas ouvidos pela reportagem, a reprodução desse conteúdo tem um único motivo: atrair atenção. A visibilidade, mesmo que negativa, se converte em alcance, engajamento e potencial monetização.
Para a publicitária e especialista em comunicação digital Bárbara Torres, esse comportamento revela um ciclo nocivo, no qual o valor do conteúdo é medido apenas pelo número de visualizações. “Estamos ganhando relevância por conta de números vazios, cercados de pessoas problemáticas sendo alimentadas por conteúdos que ferem uma comunidade inteira”, afirma.
A erotização de traços infantilizados, ou associados a deficiências intelectuais, não é acidental, ela reforça um imaginário capacitista, segundo Torres. “Não é ingênuo. É uma fantasia da submissão, o exotismo do que é diferente, esse prazer de dominar mulheres que, muitas vezes, já são silenciadas.”
Ela aponta ainda que esse tipo de representação promove uma desumanização contínua. Quando uma imagem é usada para construir desejo a partir de uma identidade que carrega estigmas sociais e históricos, o que se estabelece é uma dinâmica de dominação. “No meu ver, isso é também uma violência sexual, por mais que aconteça no ambiente online”, diz.
Alteração de imagem pode ser crime?
Apesar de ainda não existir uma legislação específica voltada exclusivamente para imagens geradas por inteligência artificial com feições que simulam deficiência ou outras condições, como a síndrome de Down, já há propostas em tramitação no Congresso que buscam criminalizar esse tipo de prática.
O PL 3.821/2024, aprovado pela Câmara em fevereiro de 2025, pretende alterar o Código Penal para criminalizar a manipulação digital e divulgação de nudez falsa, também conhecida como deep nude. A pena prevista é de 2 a 6 anos de reclusão e multa, com agravantes se a vítima for mulher, criança, idoso ou com deficiência.
Segundo Cinthia Obladen de Almendra Freitas, doutora em Informática Aplicada e professora de Direito na PUC-PR, a criminalização depende de como a imagem foi gerada e se é possível estabelecer um vínculo com uma pessoa específica. Ela ressalta ainda que a prática levanta outras questões legais, como o uso de dados pessoais sensíveis, vulnerabilidade e discriminação.
Mesmo que não se trate de alguém identificável, a advogada Gisele Karassawa, especialista em Direito Digital e Privacidade, aponta que o uso de imagens sintéticas em contexto sexual pode, em certos casos, configurar crime ou ao menos violação de direitos fundamentais.
“O uso de deepfakes em si não se constitui ilícito. A ilicitude decorre do mau uso da tecnologia, a começar pelo uso não autorizado de direitos de personalidade de terceiros como imagem, voz e características físicas”, afirma. Ela lembra que, em plataformas como o Only Fans, a criação e divulgação de conteúdo nesse formato pode configurar difamação e gerar responsabilização cível por danos morais.
Regulamentação da IA
Na esfera jurídica, o uso da IA generativa ainda está em discussão no Brasil. Freitas lembra que o país discute atualmente o PL 2.338/2023, que visa regulamentar o uso da inteligência artificial. Internacionalmente, o tema já avançou mais: o AI Act/2024, aprovado pela União Europeia, impõe obrigações de transparência a provedores e implementadores de sistemas de IA.
“Isto mostra que ainda se tem lacuna no que se refere à responsabilização de provedores e implementadores de sistemas IA que possibilitam gerar tais imagens”, afirma a professora.
Além disso, já há leis recentes que abordam diretamente o uso da tecnologia para manipulação de imagem com o intuito de causar dano. A lei 15.123/2025, sancionada em abril deste ano, estabelece o aumento de pena para casos de violência psicológica contra a mulher quando praticada por meio de inteligência artificial. O marco amplia a proteção legal ao considerar o impacto emocional causado por conteúdos manipulados ou forjados com fins de humilhação ou exploração.
O debate, portanto, não se limita ao aspecto jurídico. Para ambas as especialistas, o uso da IA para simular rostos com síndrome de Down em material sexualizado, ainda que sem relação direta com uma pessoa real, esbarra na dignidade, um princípio fundamental previsto na Constituição, segundo elas.
Prática pode configurar discurso de ódio
Esse uso de inteligência artificial pode ser enquadrado como discurso de ódio, especialmente por explorar características sensíveis de uma população vulnerável. No Brasil, a prática pode ser investigada sob a ótica de discriminação e violação de direitos fundamentais.
Karassawa destaca que o Estatuto da Pessoa com Deficiência criminaliza condutas que envolvam a prática, indução ou incitação da discriminação por deficiência. A pena é aumentada quando a infração ocorre por meio de meios de comunicação ou publicações.
“Sob a perspectiva coletiva, é possível o ajuizamento de ação civil pública e reconhecimento de dano moral coletivo a portadoras da síndrome de Down”, explica a advogada.
Além disso, a exposição desse tipo de conteúdo afeta dados sensíveis, protegidos pela Lei Geral de Proteção de Dados (LGPD). Para Freitas, quando há associação de elementos biométricos, como feições faciais típicas de uma deficiência, a um grupo específico, existe risco à privacidade e dignidade desse grupo.
“A sensibilidade advém da associação de uma pessoa identificável por um ou mais dados biométricos que a tornam pertencente a uma classe de indivíduos, os quais podem sofrer impactos na sua vida pessoal, profissional, religiosa, política ou de saúde”, afirma.
Educação é fundamental
Para além da legislação, as especialistas reforçam a necessidade de educar a população sobre o uso responsável da tecnologia, principalmente crianças e adolescentes.
Karassawa destaca também que é fundamental desenvolver uma compreensão crítica sobre o que é gerado por inteligência artificial, para que usuários saibam identificar esse tipo de conteúdo, evitem compartilhamentos prejudiciais e não se tornem cúmplices de práticas discriminatórias ou abusivas.
Procurado pela reportagem, o Only Fans respondeu, por meio de nota, que “nenhuma das contas mencionadas está utilizando IA para filtrar ou falsificar imagens na plataforma”. A empresa também declarou que os termos de uso proíbem esse tipo de conteúdo gerado por inteligência artificial.
O TikTok informou que retira automaticamente conteúdos que violam suas regras. “Nossas Diretrizes da Comunidade deixam claro que não permitimos degradar um indivíduo devido a sua aparência, inteligência ou circunstâncias pessoais, como histórico médico”, disse em nota à DW.
Segundo a empresa, 1,1 bilhão de comentários que feriam as regras da plataforma foram derrubados entre outubro e dezembro de 2024.