Ferramentas de inteligência artificial podem gerar imagens íntimas falsas sem consentimento.
(Imagem: Freepik)
A Advocacia-Geral da União solicitou à Google, nesta quarta-feira (1º), que remova de seus resultados de busca sites que utilizam inteligência artificial para gerar imagens íntimas falsas de pessoas reais.
A notificação extrajudicial foi encaminhada após pedido da Secretaria de Comunicação Social da Presidência da República, com base em um estudo elaborado pela Fundação Getulio Vargas no Rio de Janeiro.
A pesquisa analisou o fenômeno conhecido como “nudify”, no qual ferramentas baseadas em inteligência artificial e técnicas de deepfake são utilizadas para criar imagens sexualizadas falsas sem o consentimento das pessoas retratadas.
Pesquisa aponta aumento de buscas por ferramentas de “nudify”
Segundo a Procuradoria Nacional da União de Defesa da Democracia, órgão ligado à AGU, houve crescimento significativo no uso de termos relacionados a “nudify” nas buscas feitas no Brasil desde meados de 2023.
O estudo aponta que as principais vítimas desse tipo de manipulação digital são mulheres, crianças e adolescentes, que acabam expostos a conteúdos falsos e potencialmente prejudiciais.
Pedido inclui desindexação e criação de filtros
Na notificação enviada ao Google, a AGU pede a adoção de duas medidas principais no prazo de cinco dias.
A primeira é a desindexação de sites que oferecem esse tipo de ferramenta. O documento apresenta uma lista inicial com mais de 40 links que estavam disponíveis no momento da notificação.
A segunda medida solicitada é a criação de filtros algorítmicos capazes de impedir que novos sites com funcionalidades semelhantes sejam indexados no buscador no futuro.
Relatórios apontam crescimento de conteúdos misóginos
A AGU também cita estudos internacionais que indicam aumento de conteúdos ofensivos e misóginos nas redes sociais, impulsionados pelo uso de tecnologias de inteligência artificial.
Um dos relatórios mencionados foi produzido pela organização pública Children’s Commissioner for England, ligada ao Departamento de Educação do Reino Unido, que analisou o impacto dessas ferramentas em 2025.
Segundo o documento, o uso de deepfakes para criar imagens íntimas falsas tem crescido rapidamente e pode gerar graves consequências para as vítimas.
Responsabilidade das plataformas digitais
Embora reconheça que os principais responsáveis pela criação e distribuição desse tipo de conteúdo sejam os usuários e desenvolvedores das ferramentas, a AGU afirma que a indexação dessas plataformas em mecanismos de busca facilita o acesso em larga escala.
No entendimento do órgão, quando essas ferramentas aparecem em resultados de busca, passam a ser tratadas como conteúdos comuns, o que amplia a circulação e dificulta o controle.
A AGU também destacou que o próprio Google possui regras internas que proíbem a divulgação de imagens íntimas não consensuais, mas argumenta que as medidas adotadas até agora não têm sido suficientes para impedir que esses sites continuem disponíveis nos resultados.
STF prevê responsabilização de plataformas
O documento ainda menciona entendimento do Supremo Tribunal Federal segundo o qual plataformas digitais podem ser responsabilizadas quando, mesmo cientes da existência de conteúdo ilícito, não adotam medidas rápidas para removê-lo.
Além disso, a AGU afirmou que empresas de tecnologia possuem dever de cuidado para impedir a circulação de conteúdos que possam configurar crimes graves.
Base legal inclui leis brasileiras de proteção digital
A notificação também cita diversas normas brasileiras que tratam da proteção de direitos digitais e da segurança de crianças e adolescentes na internet.
Entre elas estão o Marco Civil da Internet, a Lei Geral de Proteção de Dados e o chamado Estatuto Digital da Criança e do Adolescente.
Segundo a AGU, essas legislações reforçam o dever do Estado, da sociedade e das plataformas digitais de proteger menores de idade contra qualquer forma de violência, exploração ou exposição indevida no ambiente online.