Meta ha puesto a disposición de otras empresas la herramienta de moderación que permite identificar imágenes y vídeos en masa para su retirada de las plataformas digitales con el objetivo de frenar la difusión de contenido infractor como material terrorista o de explotación sexual infantil.
La herramienta de moderación, de código abierto, se conoce como Hasher-Matcher-Actioner (HMA) y ha sido diseñada por Meta para eliminar la difusión de contenido terrorista de las plataformas digitales como Facebook.
Meta ahora la ha liberado, poniéndola a disposición de otras empresas que no tienen los mismos recursos, para que ellas también puedan combatir el contenido que viola sus políticas, como ha informado en su blog oficial.
Una vez un la imagen o el vídeo ha sido marcado en una red social por violar las normas de la comunidad -por estar vinculado a acciones terroristas, por tratarse de material de explotación sexual infantil u otro tipo de contenido infractor-, pasa a formar parte del sistema de HMA.
Esta herramienta genera una huella única para el contenido marcado, que se conoce como 'hash', lo que permite eliminar esa primera imagen o vídeo, pero mantener la huella en la base de datos para buscar copias que se hayan podido subir a las plataformas.
De esta forma, cuando la herramienta encuentra una coincidencia no solo ofrece una relación de los resultados, sino que también permite actuar, por ejemplo, eliminar el contenido infractor identificado de forma automática en bloque o de uno en uno.
Otro objetivo de esta herramienta es crear de forma conjunta una base de datos más completa con los 'hash' para poder atajar el contenido infractor en distintas plataformas de forma más rápida y eficaz.
Esta herramienta se enmarca en los trabajos de Meta en Seguridad, un apartado en el que la compañía invirtió 5.000 millones de dólares el año pasado, con más de 40.000 trabajadores, y «cientos de personas» centradas en el trabajo específico de contraterrorismo.
La compañía también ha destacado la eficacia de su tecnología de inteligencia artificial para eliminar el contenido infractor de forma masiva. Como detalla, el contenido con discurso del odio recibe dos visitas por cada 10.000 visitas al contenido de Facebook, se bloquean «millones de cuentas falsas» a diario para evitar la propagación de información errónea, y desde 2017 han eliminado más de 150 redes de cuentas maliciosas.