21/04/2023 - 11:06
Programas como Midjourney e DeepAI criam imagens fotorrealistas com IA e estão causando uma avalanche de falsificações na internet. Confira as dicas da DW para identificar se uma foto é verdadeira ou falsa.Nunca foi tão fácil criar imagens falsas tão reais: uma conexão à internet e uma ferramenta que funciona com inteligência artificial é tudo do que se precisa. Em segundos, são criadas imagens fotorrealistas que muitos de nós percebemos como reais. E é por isso que elas se espalham tão rapidamente nas redes sociais e são frequentemente usadas especificamente para desinformação.
Apenas alguns exemplos recentes que se tornaram virais: Vladimir Putin supostamente preso, Donald Trump também supostamente preso ou Elon Musk supostamente de mãos dadas com Mary Bara, CEO da General Motors. São todas imagens criadas por inteligência artificial (IA) mostrando coisas que nunca aconteceram.
Terremotos que nunca aconteceram
Eventos como supostas perseguições espetaculares de carros ou prisões de celebridades como Putin ou Trump podem ser checados com bastante rapidez pelos usuários, verificando fontes de mídia respeitáveis. Mais problemáticas são as imagens nas quais as pessoas não são tão conhecidas, diz o especialista em IA Henry Ajder à DW.
“E não são apenas as imagens falsas com pessoas que podem espalhar a desinformação”, explica Ajder. “Temos visto pessoas criando eventos que nunca aconteceram, como terremotos.”
Foi o que ocorreu no caso de um suposto grande terremoto que abalou o noroeste do Pacífico em 2001. Só que terremoto nunca aconteceu, as imagens compartilhadas no Reddit sobre ele foram geradas por inteligência artificial.
Diante de imagens do tipo, está se tornando cada vez mais difícil classificar o que realmente aconteceu. Mas, assim como errar é humano, também a IA comete erros. Ao menos por enquanto, pois as ferramentas de IA estão se desenvolvendo rapidamente. Atualmente (abril de 2023), programas como Midjourney, Dall-E e DeepAI têm seus problemas, especialmente com imagens que mostram pessoas.
Aqui estão seis dicas da equipe de checagem da DW sobre como detectar manipulações:
1. Ampliar e examinar de perto
Muitas imagens geradas por IA parecem reais à primeira vista. Os programas utilizados podem criar imagens fotorrealistas que muitas vezes só são reveladas como falsas em um controle mais detalhado. Portanto, a primeira dica é olhar de perto. Para isso, procure por versões da imagem que tenham a maior resolução possível e amplie os detalhes. A ampliação revelará quaisquer discrepâncias, erros ou clones de imagem que possam não ter sido detectados à primeira vista.
2. Procurar a origem da imagem
Se você não tiver certeza se uma imagem é real ou gerada por IA, tente descobrir mais sobre a origem dela. Às vezes, outros usuários compartilham suas descobertas nos comentários, indicando a fonte ou o primeiro post da foto.
Uma busca reversa da imagem também pode ser útil: faça o upload da foto em ferramentas como Google, TinEye ou Yandex, o que muitas vezes leva a mais informações e pode até revelar sua origem. Se os resultados do mecanismo de busca já incluírem checagens de fatos feitas por veículos de imprensa respeitáveis, em geral eles fornecem clareza e contexto.
3. Prestar atenção às proporções do corpo
As proporções do corpo das pessoas retratadas estão corretas? Não é raro que imagens geradas por IA mostrem discrepâncias: as mãos podem ser muito pequenas ou os dedos muito longos. Ou a cabeça e os pés não combinam com o resto do corpo.
Este é o caso da falsificação em que Putin teria se ajoelhado diante de Xi Jinping. O sapato traseiro da pessoa ajoelhada, que supostamente é Putin, é desproporcionalmente grande e largo. A panturrilha da mesma perna parece alongada. A cabeça semicoberta da pessoa também é muito grande e não combina com o resto do corpo.
4. Cuidado com os erros típicos de IA
A principal fonte de erros nos programas de imagem por IA, como Midjourney e DALL-E, são atualmente as mãos. As pessoas frequentemente tem um sexto dedo, como o policial à esquerda de Putin na foto mencionada acima. Ou também, neste caso:
Aqui diz-se que o papa Francisco está usando um casaco de designer. A imagem viralizou − embora o papa na foto da direita pareça ter apenas quatro dedos e seus dedos na foto da esquerda sejam incomumente longos − as fotos são falsas.
Outros erros comuns nas imagens da IA são dentes demais, armações de óculos estranhamente deformadas ou orelhas com formas irreais, como na imagem falsa de Xi e Putin mencionada. Superfícies refletoras como viseiras de capacete também causam problemas para os programas de IA; às vezes parecem se dissolver, como na suposta prisão de Putin.
Mas o especialista em IA Henry Ajder adverte: “Na versão atual, o Midjourney ainda comete erros como com a imagem do papa, mas é muito melhor em gerar mãos do que nas versões anteriores. A direção é clara: não podemos esperar que os programas cometam tais erros por muito mais tempo.”
5. A imagem parece artificial e suavizada?
O aplicativo Midjourney em particular cria muitas imagens que parecem idealizadas, ou seja, boas demais para serem verdadeiras. Nesse caso, siga seu instinto: uma imagem tão perfeita e estética com pessoas impecáveis pode realmente ser real?
“Os rostos são puros demais. Os tecidos mostrados também são muito harmoniosos”, explica Andreas Dengel, diretor do Centro Alemão de Pesquisa em IA.
A pele das pessoas é frequentemente lisa e livre de qualquer imperfeição, e seus cabelos e dentes são impecáveis, o que geralmente não é o caso na realidade. Muitas fotos também têm um aspecto artístico que dificilmente pode ser alcançado mesmo por fotógrafos profissionais em estúdio e com posterior edição de imagens.
Os programas de IA obviamente criam com frequência imagens idealizadas que parecem perfeitas e são destinadas a agradar muitas pessoas. Isto é precisamente uma fraqueza dos programas, porque torna algumas falsificações reconhecíveis.
6. Examinar o fundo da imagem
Às vezes, o fundo de uma imagem revela a manipulação. Aqui também podem ser mostrados objetos deformados, por exemplo, lanternas. Em alguns casos, os programas de IA clonam pessoas e objetos e os utilizam duas vezes. E não é raro que o fundo das imagens de IA esteja fora de foco. Mas mesmo esse efeito pode conter erros. Por exemplo, quando o fundo não é apenas desfocado, mas artificialmente embaçado, como nesta imagem falsa, que supostamente mostra um Will Smith irado no Oscar:
Conclusão
Muitas imagens geradas por IA podem ser identificadas como falsas com um pouco de pesquisa. Mas a tecnologia está ficando mais aprimorada, e os erros provavelmente serão mais raros no futuro.
Os detectores de IA como o Hugging Face podem ajudar a descobrir manipulações? De acordo com o que descobrimos, os detectores fornecem pistas, mas nada mais. Os especialistas que entrevistamos tendem a aconselhar contra seu uso, dizendo que as ferramentas não estão totalmente desenvolvidas. Mesmo fotos genuínas são declaradas falsas e vice-versa.
A questão do que é real e do que não é nem sempre pode ser respondida de forma confiável por aplicativos de detectores. É uma “corrida tecnológica” com a inteligência artificial, diz Antonio Krüger, pesquisador de IA da Universidade do Sarre. “Acho que temos que nos acostumar com o fato de que não se pode realmente confiar em nenhuma imagem na internet.”
—
Nota: Por razões legais e jornalísticas, a DW não publica imagens criadas com programas generativos de IA . Exceção: Mostramos imagens de IA quando elas são objeto de reportagens, por exemplo, quando verificamos notícias falsas ou informamos sobre as capacidades da inteligência artificial. Neste caso, indicamos claramente que se trata de imagens de IA.