Síguenos F Y T L I T R

TikTok es consciente de los efectos negativos que ocasiona su plataforma para los adolescentes, según informes internos

Archivo - El logo de TikTok en un teléfono móvil (archivo) | Monika Skolimowska/dpa - Archivo

| Madrid |

TikTok es consciente de los peligros y efectos negativos que puede ocasionar el uso de su red social en los adolescentes, tanto a nivel de salud mental como a nivel social, a la hora de llevar a cabo capacidades analíticas, mostrar empatía o participar en conversaciones profundas, según investigaciones internas de la compañía.

El pasado martes, catorce fiscales generales de Estados Unidos lanzaron una demanda contra TikTok en la que acusaron a la red social propiedad de ByteDance de estar diseñada para generar adicción y engañar a los usuarios, al fingir ser una plataforma segura para los jóvenes.

La demanda presentada por la Oficina del Fiscal General de Kentucky alegó, además, que el personal de TikTok es consciente de que la red social es perjudicial para los jóvenes, y de que sus medidas de seguridad son ineficaces para reducir el tiempo que pasan los usuarios frente a la pantalla o para protegerlos de contenido dañino, según datos recogidos en informes internos de la compañía.

Estos informes internos se entregaron con la demanda de forma confidencial para proceder a su investigación, sin embargo, 30 de estos documentos fueron publicados por la Radio Pública de Kentucky durante un periodo breve de tiempo, y posteriormente recogidos National Public Radio (NPR), que también tuvo acceso a esta información oculta de la demanda.

Tal y como ha podido conocer NPR, estos documentos también muestran resúmenes de estudios y comunicaciones internas sobre la inutilidad de algunas medidas y herramientas interpuestas para intentar corregir estos peligros.

Consumo compulsivo de tiktok

Uno de los puntos que recoge la investigación interna de TikTok está relacionado con crear la necesidad de utilizar la red social de forma compulsiva y, para ello, dispone de una serie de opciones diseñadas concretamente para mantener a los usuarios jóvenes dentro de la 'app'.

Por ejemplo, una de las afirmaciones recogidas en la demanda señala que se necesitan 260 vídeos para que una persona adquiera el hábito de utilizar TikTok. Teniendo en cuenta que los vídeos de la red social pueden durar como mínimo ocho segundos, y que se reproducen sucesivamente de forma automática, los investigadores han detallado que con menos de 35 minutos «es probable que un usuario promedio se vuelva adicto a la plataforma».

Como resultado, los informes internos detallan que el uso compulsivo de la 'app' "se correlaciona con una serie de efectos negativos para la salud mental", como son la pérdida de habilidades analíticas, la formación de la memoria, el pensamiento contextual, la profundidad conversacional, la empatía y el aumento de la ansiedad.

Igualmente se señala que este uso compulsivo también interfiere en aspectos del sueño, responsabilidades laborales y escolares, y en la conexión de los usuarios con sus seres queridos. De hecho, según las declaraciones de un ejecutivo de TikTok, recogidas en los informes, podría afectar hasta a la capacidad de «mirar a alguien a los ojos».

Para frenar el uso continuo de la 'app', TikTok introdujo medidas como establecer un tiempo predeterminado de uso de 60 minutos al día. Sin embargo, los documentos disponen de datos en los que se muestra que esta herramienta estaba «mejorando la confianza del público en la plataforma», sin mencionar si realmente sirve para reducir el tiempo de los adolescentes en la red social.

Igualmente, se concluyó que esta herramienta ocasionó una disminución de tiempo de uso de, aproximadamente, 1,5 minutos. Es decir, los jóvenes pasaron de utilizarla alrededor de 108,5 minutos por día a 107 minutos diarios.

Promoción de los filtros de belleza

Por otra parte, los documentos internos a los que accedió NPR también señalan que TikTok es consciente de que impulsa el uso de filtros de belleza, con los que los usuarios mejoran su aspecto de forma artificial, eliminando arrugas, haciendo los labios más grandes o mostrando una figura más delgada.

La compañía es conocedora de los daños que pueden ocasionar los filtros a los menores a nivel físico y mental. Por ello, algunos empleados plantearon la opción de ofrecer «recursos educativos sobre los trastornos de la imagen», así como crear campañas de concienciación sobre los problemas que pueden ocasionar los filtros como, por ejemplo, fomentar la «baja autoestima».

A pesar de esta sugerencias, otro de los informes detalla que el algoritmo de TikTok prioriza a las personas que se consideran más bellas. Para llegar a esta conclusión, se analizó el 'feed' de vídeos principal de la red social y, tal y como lo explicaron en la demanda las autoridades de Kentucky, se identificó que la red social cambió específicamente el algoritmo de TikTok para mostrar «menos sujetos no atractivos» en el 'feed' Para ti, aunque «pudiera afectar negativamente a usuarios jóvenes».

Filtros de información y moderación de contenido

Por otra parte, los documentos internos también señalan que TikTok es conocedor de que dispone de «burbujas de filtro», con las que muestra exclusivamente información y opiniones que se ajustan a los gustos de los usuarios, mediante «algoritmos que personalizan la experiencia en línea de un individuo».

En concreto, la red social ha llevado a cabo experimentos internos con los que ha comprobado la rapidez con la que el algoritmo forma «burbujas de filtro negativas». Basta con emplear 20 minutos en la red social, siguiendo algunas cuentas de contenido doloroso o triste -al que se refieren como 'painhub' y 'sadnotes'-, para que se muestre únicamente contenido negativo en el 'feed', incluidos vídeos sobre suicidio o trastornos alimentarios.

Además, los informes internos señalan problemas con la moderación de contenido en la 'app', dado que habitualmente utilizan inteligencia artificial (IA) para marcar el contenido que no cumple con las Normas de la comunidad, sin tener en cuenta el contexto de ciertos contenidos o reglas específicas para ciertas edades.

Por ejemplo, los informes internos detallan que encontraron vídeos de autolesiones que tuvieron más de 75.000 visualizaciones antes de que TikTok los identificara y eliminara.

Además, cuentan con diferentes tasas de «filtración» de contenido que, aunque va en contra de sus pautas, no se elimina. Es decir, incluyen una tasa de 35,71 por ciento de «normalización de la pedofilia», un 50 por ciento de «glorificación de la agresión sexual a menores» y un 100 por cien de «fetichización de menores», según los documentos filtrados.

En cuanto a las cuentas identificadas como sospechosas de pertenecer a menores de 13 años, los moderadores también disponen de normativas que señalan que no deben eliminar dichos perfiles, a no ser que los propios usuarios señalen que son menores.

Tergiversar el compromiso de tiktok

Con todo ello, el portavoz de TikTok, Alex Haurek, ha indicado en declaraciones al medio citado que la denuncia «selecciona citas engañosas» y saca de contexto documentos obsoletos para «tergiversar» el compromiso de la compañía con respecto a la seguridad de la comunidad.

Además de condenar la publicación de información que está «bajo secreto de sumario», Haurek también dijo que desde TikTok cuentan con «sólidas medidas de seguridad», como la «eliminación proactiva de usuarios de menores de edad sospechosos». Asimismo, ha recordado funciones como los límites de tiempo de pantalla, el emparejamiento familiar y la privacidad predeterminada para menores de 16 años.

Lo más visto