Síguenos F Y T L I T R

Comprueban que los agentes de IA pueden utilizarse para realizar estafas telefónicas autónomas

Persona atendiendo una llamada en el teléfono móvil | UNSPLASH/CC/MARÍLIA CASTELLI

| Madrid |

Los agentes de inteligencia artificial (IA) generativa con capacidades de voz pueden utilizarse para realizar llamadas fraudulentas de manera autónoma, y aunque su tasa de éxito es por el momento moderada, se espera que los avances en esta tecnología los conviertan en una herramienta dañina en manos de los cibercriminales.

Las estafas de base telefónica son habituales en el panorama del cibercrimen, y requieren que un estafador contacte con la potencial víctima mediante una llamada para convencerle de que le dé datos sensibles, como credenciales de acceso a servicios digitales o el número de cuenta bancaria, con el objetivo de robar su dinero.

Este proceso requiere que el estafador realice múltiples acciones, como navegar por la página web de un banco, obtener e introducir las credenciales del usuario, obtener e introducir el factor adicional de seguridad en un sistema de autenticación múltiple y realizar la transferencia, e incluso reaccionar ante problemas que surjan, como entender mal el dato que dice la víctima.

En este contexto, investigadores de la Universidad de Illinois en Urbana-Champaign (Estados Unidos) han comprobado que se puede habilitar un agente de IA para que realice estas tareas en una estafa telefónica, como recogen en el texto de su investigación, publicado en Arxiv.org. «Las llamadas de estafa autónomas son posibles con los nuevos avances en IA», afirman.

Aunque saben que el uso de la IA en las estafas no es nuevo, ya que la técnica conocida como de manipulación profunda (deepfake) ya se emplea ampliamente, sobre todo en redes sociales, se han centrado en las capacidades de voz de los modelos de lenguaje de gran tamaño (LLM, por su siglas en inglés) que impulsan estos agentes, en tanto que «las estafas de voz autónoma y receptiva no están ampliamente desplegadas debido a las limitaciones tecnológicas».

En concreto, los investigadores han empleado ChatGPT con el modelo GPT-4o, de OpenAI, y han registrado una tasa de éxito moderada, que varía entre el 20 y el 60 por ciento, mientras que la tasa de éxito en todas las estafas es del 36 por ciento, según la investigación, que remarca el esfuerzo que tiene que realizar el agente en este proceso: 26 acciones para completar la transferencia bancaria, y hasta tres minutos en las estafas más complejas.

"Como hemos demostrado, los agentes de LLM habilitados para voz pueden realizar las acciones necesarias para realizar estafas telefónicas comunes. Estos agentes son muy capaces, pueden reaccionar a los cambios en el entorno y volver a intentarlo en función de la información defectuosa de la víctima.

Con su trabajo esperan que OpenAI y otras empresas refuercen la seguridad de sus LLM. Y para evitar que sus agentes caigan en malas manos, han optado por no hacer público el código de sus agentes.

Lo más visto