Meta, la empresa matriz de Instagram, reconoció un error técnico en su plataforma que permitió la aparición de vídeos violentos y gráficos en la pestaña Reels, afectando a numerosos usuarios, incluidos menores de edad.
Este fallo generó una oleada de quejas en redes sociales, donde los usuarios denunciaron haber encontrado contenido perturbador, como desmembramientos, cuerpos carbonizados y comentarios sádicos hacia imágenes de sufrimiento humano y animal.
A pesar de tener activada la función de “Control de contenido delicado”, diseñada para limitar este tipo de publicaciones, muchos usuarios afirmaron haber sido expuestos al material explícito.
Un portavoz de Meta declaró a CNBC: “Hemos corregido un fallo que provocaba que algunos usuarios visualizaran contenido en su ‘feed’ de Instagram Reels que no debería haber sido recomendado. Pedimos disculpas por este error”.
Según las políticas de la compañía, se prohíbe contenido extremadamente gráfico como vídeos que muestren desmembramientos o cuerpos quemados, aunque se permite cierto material gráfico si tiene como objetivo crear conciencia sobre problemas graves como violaciones a los derechos humanos o conflictos armados, siempre acompañado de etiquetas de advertencia.
El problema se hizo evidente el miércoles por la noche en Estados Unidos, cuando varios medios como CNBC y The Wall Street Journal confirmaron la presencia de publicaciones etiquetadas como “Contenido sensible”, que mostraban cadáveres, lesiones gráficas y actos violentos.
Estas publicaciones provenían de cuentas no seguidas por los usuarios, con nombres como “Blackpeoplebeinghurt” y “ShowingTragedies”. Además, algunos usuarios destacaron que sus feeds habían cambiado drásticamente de contenido habitual a un flujo constante de violencia explícita.
Usuarios en plataformas como Reddit y X expresaron su indignación. Algunos afirmaron haber visto vídeos extremadamente gráficos apenas al abrir la aplicación. Comentarios como “Vi una ejecución al instante” o “Instagram se ha convertido en un campo de batalla lleno de caos” reflejaron el impacto emocional del error. Otros criticaron directamente a Meta por lo que consideran fallos reiterados en su sistema de moderación.
Aunque Meta no ha ofrecido detalles específicos sobre las causas del error, varios expertos sugieren que podría tratarse de un fallo en los algoritmos encargados del control del contenido sensible o una consecuencia involuntaria de actualizaciones recientes. La compañía ha enfrentado críticas similares en el pasado por problemas relacionados con la moderación insuficiente y la proliferación de contenido dañino en regiones como Myanmar e Irak.
El incidente ocurre en un contexto polémico para Meta, que recientemente implementó cambios significativos en sus políticas de moderación. En enero, la empresa eliminó el uso de verificadores externos en Estados Unidos, reemplazándolos por un sistema comunitario similar al modelo adoptado por X (antes Twitter).
También redujo los procesos automatizados para eliminar contenido y priorizó violaciones graves como terrorismo o explotación infantil. Sin embargo, estas medidas han generado críticas por parte de expertos y usuarios, quienes temen una menor capacidad para filtrar material inapropiado.