A plataforma de discussões online está a reforçar as regras de moderação para combater a disseminação de material violento ou ilegal. A novidade surge após incidentes recentes noutras redes sociais, onde utilizadores foram expostos a publicações perturbadoras sem consentimento.
A Reddit vai começar a enviar avisos formais a contas que apoiam repetidamente conteúdo proibido através de upvotes. A medida, anunciada pela equipa de segurança da plataforma no subreddit r/RedditSafety, marca uma mudança estratégica: até agora, as ações concentravam-se apenas nos autores das publicações.
Principais alterações:
- Sistema de deteção automática de votos em comunidades banidas ou sinalizadas
- Aplicação progressiva: primeiras notificações são educativas, sem penalizações imediatas
- Expansão de mecanismos testados em fóruns “quarentenados” em 2023
Um administrador explicou que os upvotes em material violento “distorcem os algoritmos de relevância”, dificultando a moderação proativa. Dados internos mostram que a técnica reduziu em 62% a visibilidade de conteúdos nocivos durante testes anteriores.

Preocupações sobre liberdade de interação
A reação da comunidade divide-se entre elogios à transparência e receios de censura indireta. Num thread com 1.200 comentários no r/Technology, utilizadores destacaram:
“Como distinguir apoio intencional de erro de julgamento? Um meme político pode ser mal interpretado como discurso de ódio” – questiona o utilizador @DigitalRightsAdvocate
A Reddit respondeu que está a calibrar os limiares de deteção para evitar falsos positivos. A plataforma prometeu:
- Revisão manual de casos contestados
- Relatórios trimestrais sobre o impacto da medida
- Opção de recurso via formulário dedicado
Contexto corporativo e rumores de aquisição
Esta mudança ocorre paralelamente a rumores sobre o envolvimento de Steve Huffman, cofundador da Reddit, num consórcio para aquisição da TikTok. Fontes próximas ao processo confirmaram ao TechCrunch que as negociações estão numa fase preliminar, sem garantias de concretização.
Dados relevantes:
- 18% do tráfego global da Reddit provém de fóruns moderados por voluntários
- Sistema de votos influencia 43% do conteúdo na feed “Popular”
- 270 comunidades foram banidas por violência gráfica em 2024
A estratégia reflete uma tendência setorial: plataformas como Facebook e Discord já implementaram sistemas similares em 2023, com reduções entre 30-55% na viralidade de conteúdo perigoso. Especialistas em segurança digital alertam, porém, para o risco de enviesamento algorítmico nas decisões de moderação automatizada.
Outros artigos interessantes: