Síguenos F Y T L I T R

Una herramienta que "se rompió" y dejó de mostrar contexto, detrás de los fallos de moderación de Threads e Instagram

Archivo - Interfaz de la aplicación móvil de Threads | META - Archivo

| Madrid |

Meta está revisando los problemas que la semana pasada surgieron con los sistemas de moderación de Threads e Instagram, que llegaron a bloquear contenido y eliminar cuantas que no habían cometido ninguna infracción, que la compañía identifica en herramienta que «se rompió».

La semana pasado, algunos usuarios de Threads e Instagram se quejaron de que sus cuentas habían sido bloqueadas o eliminadas después de que el sistema identificara erróneamente sus contenidos como falsos o controvertidos.

El responsable de estas dos plataformas, Adam Mosseri, aseguró que ya estaban investigando este fallo en el sistema de moderación automática, y unos días después confirmó que incluso habían encontrado fallos y los habían corregido.

En respuesta a la duda de un usuario, Mosseri compartió que para las revisiones, los empleados necesitan contexto para poder determinar si ha habido una infracción o no. Pero este paso falló debido a que una de sus herramientas «se rompió y no mostraba suficiente contexto».

Relacionado
Lo más visto