Barra de Cotações
📅 Última atualização: sex., 07.11.25 – 21h10
💵 Dólar: R$ 5,336 ↘ (0,22%) | 💶 Euro: R$ 6,174 ↗ (0,01%) | 💷 Libra: R$ 7,043 ↗ (0,23%) | 🪙 Bitcoin: R$ 551.145,13 ↗ (1,65) | ⛓️ Ethereum: R$ 18.321,93 ↗ (0,03%) | 🌕 Litecoin: R$ 545,21 ↗ (0,45%) | 🚀 Solana: R$ 862,24 ↘ (0,01%) 💵 Dólar: R$ 5,336 ↘ (0,22%) | 💶 Euro: R$ 6,174 ↗ (0,01) | 💷 Libra: R$ 7,043 ↗ (0,23%) | 🪙 Bitcoin: R$ 551.145,13 ↗ (1,65%) | ⛓️ Ethereum: R$ 18.321,93 ↗ (0,03%) | 🌕 Litecoin: R$ 545,21 ↗ (0,45%) | 🚀 Solana: R$ 862,24 ↘ (0,01%)
Atriz e ator se preparam para cena de vídeo erótico de realidade virtual — Foto: Reprodução/BadoinkVR

A inteligência artificial transformou a “pornografia sem consentimento” em violência sob demanda. Em 2026, o debate já não gira apenas em torno da sofisticação técnica dessas ferramentas. Agora, discute-se também a facilidade com que plataformas, aplicativos e serviços passaram a embalar esse abuso como produto acessível.

A oferta de serviços para manipular rostos circula em anúncios de sites de conteúdo adulto. Em janeiro, era possível baixar mais de 50 aplicativos com essa finalidade no Google Play, e 47 na App Store, nos Estados Unidos.

Quando a ferramenta tem interface em loja de aplicativo, o abuso é embalado como conveniência. O ato deixa de ser exceção e vira consumo fácil. Em sites adultos, é comum ver anúncios oferecendo esse tipo de serviço.

De celebridade à vizinha

De celebridade à pessoa comum, a lógica é a mesma: transformar imagem íntima sintética não consensual em mercadoria. O problema não está apenas na falsidade visual, mas no modelo de negócio que vende intimidade forjada como serviço.

Sem exigir conhecimento técnico, plataformas permitem que usuários enviem fotos de colegas, conhecidas ou ex-parceiras, convertendo proximidade social em valor de consumo e de circulação

O modelo indica que, quanto maior a familiaridade do usuário com a vítima, maior o valor do conteúdo para quem consome ou compartilha. Além disso, a adesão ao mercado se sustenta por crenças que parecem minimizar o dano. Exemplos são a ideia de que figuras públicas são alvos legítimos ou de que não existe violência ou crime nos casos de manipulação de imagem.

Uma pesquisa realizada no começo do ano pela University College Cork (UCC), com mais de dois mil participantes, confirmou que a crença nesses mitos aumenta a propensão de usuários a assistir, criar ou compartilhar esse tipo de material. Portanto, a instituição sustenta que o combate exige mais regulação e educação do usuário.

Um projeto lançado em fevereiro pelo instituto alemão ITAS-KIT, em parceria com universidadeslocais, cita estimativas de que 98% dos deepfakes são pornográficos. Além disso, o dano não depende de a imagem ser tomada como verdadeira.

A violência ocorre porque a agressão forja e reencena a intimidade da vítima, expondo seu corpo de maneira sexualizada sem consentimento e retirando dela o controle sobre a própria imagem. Por isso, a pesquisa do ITAS-KIT conclui que as punições não avançam porque os agressores permanecem anônimos. Muitas vítimas também evitam a denúncia formal.

O avanço das punições segue limitado não apenas pela ausência de resposta institucional, mas pela dificuldade de aplicar regras existentes em contextos marcados por anonimato, circulação rápida e subnotificação. Pesquisas recentes apontam que muitas vítimas evitam a denúncia formal. Enquanto isso, autores permanecem difíceis de identificar, o que enfraquece a responsabilização e mantém o mercado em funcionamento”.

G1

O que você achou desta publicação?

Obrigado pela sua avaliação!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *