O debate sobre a exploração de crianças e adolescentes nas redes sociais voltou à tona após o influenciador Felca publicar, no dia 6 de agosto, um vídeo acusando Hytalo Santos de produzir conteúdos com menores voltados para adultos. O material mostrou que, mesmo com regras de proibição, esse tipo de conteúdo pode ser facilmente encontrado e comentado por usuários que trocam imagens explícitas envolvendo menores de 18 anos.
Especialistas ouvidas pelo g1 apontam que as plataformas possuem sistemas de detecção, mas o modelo de negócio baseado em engajamento e monetização cria incentivo para que conteúdos problemáticos permaneçam online. Quanto mais interações um post gera, maior é a chance de lucratividade para influenciadores e plataformas. “Todo mundo está ganhando nessa história, só a gente que está perdendo por ser exposto a esse tipo de conteúdo”, afirma Raquel Saraiva, presidente do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec).
As principais redes, como Instagram, TikTok e YouTube, dizem utilizar inteligência artificial para remover automaticamente conteúdos que violem suas regras, e encaminham casos complexos para análise humana. Para Maria Mello, do Instituto Alana, focado na proteção de crianças, o problema é estrutural: “Não temos a menor dúvida de que é o modelo econômico e o desenho [das redes sociais] que faz com que elas sigam, no mínimo, tolerando a circulação desse tipo de conteúdo”.
Raquel Saraiva sugere medidas de moderação inspiradas na proteção de direitos autorais, como impedir que vídeos com imagens de crianças sejam monetizados, diminuindo o incentivo financeiro para a produção desses conteúdos. “Só que, como se criou esse mercado muito grande dos algoritmos, seria uma medida criticada por muita gente”, pondera.
O episódio reacendeu discussões na Câmara sobre proteção infantil nas redes sociais. O relatório do PL 2628/2022, apresentado em 12 de agosto, proíbe pornografia e jogos de azar, mas não aborda o “dever de cuidado” das plataformas. Em junho, o STF determinou que redes sociais podem ser responsabilizadas por falhas na remoção de crimes sexuais contra menores.
As próprias plataformas reiteram suas políticas de proteção. A Meta afirma que remove conteúdo envolvendo exploração sexual e nudez infantil; o Instagram usa IA para identificar fotos e textos com nudez ou conteúdo explícito; o TikTok proíbe monetização de contas de menores e prioriza remoção de conteúdo grave; e o YouTube garante a retirada imediata de materiais que coloquem crianças em risco.
Especialistas reforçam que a melhor forma de proteger crianças é limitar sua exposição online e orientar sobre navegação segura. Maria Mello lembra que a exposição pode afetar o desenvolvimento psicossocial das crianças, e Raquel Saraiva destaca a importância de diálogo e canais de denúncia para que menores reportem conteúdos inadequados. Ferramentas de monitoramento em Android e iPhone, além de recursos das redes sociais, podem ajudar pais e responsáveis a acompanhar e controlar o acesso de crianças à internet.