Usuários de diversas partes do mundo notaram que seus feeds estavam sendo preenchidos por vídeos curtos de violência extrema A Meta emitiu um pedido de desculpas após usuários do Instagram relatarem que seus feeds estavam sendo inundados por vídeos de conteúdo gráfico e perturbador. 'Corrigimos um erro que fez com que alguns usuários vissem conteúdos no feed do Reels que não deveriam ter sido recomendados', declarou um porta-voz da empresa ao Business Insider. Explosão de vídeos violentos no Reels Usuários de diversas partes do mundo notaram que seus feeds estavam sendo preenchidos por vídeos curtos de violência extrema, incluindo execuções e cenas de crimes ligados a cartéis. Apesar de alguns conteúdos estarem marcados com o rótulo de 'conteúdo sensível', o algoritmo do Instagram continuava recomendando essas postagens repetidamente. A Meta afirma que tem diretrizes para remover conteúdos excessivamente violentos e impor restrições para menores de idade. No entanto, essa falha levanta dúvidas sobre a eficácia de seu sistema de moderação de conteúdo. Mudanças na moderação geram críticas O erro ocorre em um momento em que a Meta está implementando mudanças significativas em sua política de moderação. No início de janeiro, a empresa substituiu os verificadores de fatos terceirizados nos EUA por um sistema de notas comunitárias. Além disso, a companhia anunciou a simplificação de suas políticas de conteúdo, eliminando restrições sobre temas como imigração e gênero. Em janeiro, o Business Insider revelou que a Meta encerraria oficialmente suas parcerias de checagem de fatos nos Estados Unidos até março. Histórico de falhas na moderação Desde 2016, a Meta enfrenta críticas por falhas na moderação de conteúdo. A empresa já foi acusada de facilitar a venda de drogas ilícitas e de permitir a proliferação de discursos de ódio e desinformação em diversas partes do mundo. Em 2023, Mark Zuckerberg foi questionado por congressistas dos EUA sobre a segurança infantil em suas plataformas. Internacionalmente, a falta de monitoramento adequado teria exacerbado conflitos e violência em países como Mianmar, Iraque e Etiópia. As mudanças na moderação da Meta seguem uma abordagem semelhante à adotada por Elon Musk no X (antigo Twitter), desde que ele adquiriu a plataforma em 2022. A empresa ainda não detalhou quais medidas tomará para evitar novas falhas como essa no futuro.