Como TikTok e Meta ignoraram segurança para ganhar disputa por engajamento, segundo ex-funcionários

Como TikTok e Meta ignoraram segurança para ganhar disputa por engajamento, segundo ex-funcionários

 

 

TikTok e Meta: Ex-funcionários Revelam Que Segurança Foi Ignorada
Investigação Especial · BBC Tecnologia & Sociedade Março 2026
Inside the Rage Machine

TikTok e Meta: Ex-funcionários Revelam Que Segurança Foi Ignorada na Corrida Pelo Engajamento

Investigação da BBC expõe como algoritmos foram ajustados para priorizar conteúdo controverso, mesmo ciente dos riscos.

Investigação · BBC Leitura: ~5 min Publicado hoje

Gigantes das redes sociais como TikTok e Meta, dona do Facebook e Instagram, teriam deliberadamente flexibilizado suas políticas de segurança para maximizar o engajamento de seus usuários. A alegação vem de ex-funcionários e pessoas ligadas às empresas, que apontam para pesquisas internas indicando que a indignação e o conteúdo controverso geravam mais visualizações e interações.

Essa corrida pela atenção, impulsionada pelo sucesso estrondoso do TikTok e seu algoritmo viciante, teria levado a Meta a priorizar conteúdos nocivos — como misoginia e teorias conspiratórias — em detrimento da segurança. A pressão por resultados financeiros e a queda no preço das ações teriam sido fatores determinantes nessa decisão, conforme relatado por um engenheiro da empresa à BBC.

O documentário “Inside the Rage Machine” da BBC detalha como essas plataformas, em sua busca por manterem-se competitivas, teriam assumido riscos significativos em relação a temas como violência, exploração sexual e terrorismo, expondo um dilema ético onde o lucro e o alcance parecem ter se sobreposto à proteção dos usuários.

A diretoria instruiu a equipe a permitir mais conteúdo nocivo “limítrofe” nos feeds — como forma de competir com o TikTok e conter a queda nas ações.

Instagram Reels: O Lançamento Sem Proteções Suficientes

O lançamento do Instagram Reels, a resposta da Meta ao fenômeno do TikTok, ocorreu em 2020 sem as devidas salvaguardas de segurança. Pesquisas internas da própria Meta, obtidas pela BBC, revelaram que a plataforma apresentava uma incidência significativamente maior de bullying, assédio, discurso de ódio e violência em comparação com outras áreas do Instagram.

Dados internos da Meta mostram que o Reels concentrava índices superiores de conteúdo prejudicial em relação ao restante da plataforma — sugerindo uma priorização clara do engajamento sobre a experiência segura do usuário.

· · ·

TikTok: Priorizando Políticos em Detrimento de Denúncias Graves

Um funcionário do TikTok concedeu à BBC acesso a painéis internos da empresa, onde foram evidenciadas decisões preocupantes. Denúncias de conteúdos nocivos envolvendo crianças foram, em alguns casos, preteridas em favor de reclamações relacionadas a figuras políticas.

A motivação, segundo o funcionário, seria a necessidade de manter um bom relacionamento com políticos e evitar possíveis retaliações regulatórias — e não a preocupação genuína com os usuários mais vulneráveis da plataforma.

· · ·

O Algoritmo da Indignação

O sucesso avassalador do TikTok se deve, em grande parte, ao seu algoritmo de recomendação de vídeos curtos, capaz de prender a atenção dos usuários por horas. Essa eficiência, no entanto, parece ter um lado sombrio.

Pesquisas internas em ambas as empresas indicam que conteúdos que geram indignação e revolta tendem a impulsionar o engajamento — criando um ciclo vicioso onde plataformas podem, intencionalmente ou não, amplificar discursos de ódio e desinformação.

· · ·

A Pressão Pelo Lucro e a Queda nas Ações

A busca incessante por engajamento e a consequente pressão por resultados financeiros teriam levado a Meta a tomar decisões arriscadas. Um engenheiro da empresa relatou que a diretoria instruiu a equipe a permitir mais conteúdo nocivo “limítrofe” nos feeds, como forma de competir com o TikTok.

A justificativa, segundo ele, era a necessidade de conter a queda no preço das ações da empresa — demonstrando a forte e inquietante ligação entre performance financeira e decisões de moderação de conteúdo.

Baseado na investigação “Inside the Rage Machine” · BBC · © 2026

Publicar comentário