Como TikTok e Meta ignoraram segurança para ganhar disputa por engajamento, segundo ex-funcionários
TikTok e Meta: Ex-funcionários Revelam Que Segurança Foi Ignorada na Corrida Pelo Engajamento
Investigação da BBC expõe como algoritmos foram ajustados para priorizar conteúdo controverso, mesmo ciente dos riscos.
Gigantes das redes sociais como TikTok e , dona do Facebook e Instagram, teriam deliberadamente flexibilizado suas políticas de segurança para maximizar o engajamento de seus usuários. A alegação vem de ex-funcionários e pessoas ligadas às empresas, que apontam para pesquisas internas indicando que a indignação e o conteúdo controverso geravam mais visualizações e interações.
Essa corrida pela atenção, impulsionada pelo sucesso estrondoso do TikTok e seu algoritmo viciante, teria levado a Meta a priorizar conteúdos nocivos — como misoginia e teorias conspiratórias — em detrimento da segurança. A pressão por resultados financeiros e a queda no preço das ações teriam sido fatores determinantes nessa decisão, conforme relatado por um engenheiro da empresa à BBC.
O documentário “Inside the Rage Machine” da BBC detalha como essas plataformas, em sua busca por manterem-se competitivas, teriam assumido riscos significativos em relação a temas como violência, exploração sexual e terrorismo, expondo um dilema ético onde o lucro e o alcance parecem ter se sobreposto à proteção dos usuários.
A diretoria instruiu a equipe a permitir mais conteúdo nocivo “limítrofe” nos feeds — como forma de competir com o TikTok e conter a queda nas ações.
Instagram Reels: O Lançamento Sem Proteções Suficientes
O lançamento do Instagram Reels, a resposta da ao fenômeno do TikTok, ocorreu em 2020 sem as devidas salvaguardas de segurança. Pesquisas internas da própria Meta, obtidas pela BBC, revelaram que a plataforma apresentava uma incidência significativamente maior de bullying, assédio, discurso de ódio e violência em comparação com outras áreas do Instagram.
Dados internos da Meta mostram que o Reels concentrava índices superiores de conteúdo prejudicial em relação ao restante da plataforma — sugerindo uma priorização clara do engajamento sobre a experiência segura do usuário.
TikTok: Priorizando Políticos em Detrimento de Denúncias Graves
Um funcionário do TikTok concedeu à BBC acesso a painéis internos da empresa, onde foram evidenciadas decisões preocupantes. Denúncias de conteúdos nocivos envolvendo crianças foram, em alguns casos, preteridas em favor de reclamações relacionadas a figuras políticas.
A motivação, segundo o funcionário, seria a necessidade de manter um bom relacionamento com políticos e evitar possíveis retaliações regulatórias — e não a preocupação genuína com os usuários mais vulneráveis da plataforma.
O Algoritmo da Indignação
O sucesso avassalador do TikTok se deve, em grande parte, ao seu algoritmo de recomendação de vídeos curtos, capaz de prender a atenção dos usuários por horas. Essa eficiência, no entanto, parece ter um lado sombrio.
Pesquisas internas em ambas as empresas indicam que conteúdos que geram indignação e revolta tendem a impulsionar o engajamento — criando um ciclo vicioso onde plataformas podem, intencionalmente ou não, amplificar discursos de ódio e desinformação.
A Pressão Pelo Lucro e a Queda nas Ações
A busca incessante por engajamento e a consequente pressão por resultados financeiros teriam levado a a tomar decisões arriscadas. Um engenheiro da empresa relatou que a diretoria instruiu a equipe a permitir mais conteúdo nocivo “limítrofe” nos feeds, como forma de competir com o TikTok.
A justificativa, segundo ele, era a necessidade de conter a queda no preço das ações da empresa — demonstrando a forte e inquietante ligação entre performance financeira e decisões de moderação de conteúdo.

Publicar comentário