Una vulnerabilidad de Copilot permitía robar información sensible con el envío de un email

Una vulnerabilidad de Copilot permitía robar información sensible con el envío de un email

Microsoft 365 Copilot | Foto: MICROSOFT

| Madrid, |

Una vulnerabilidad crítica en Microsoft 365 Copilot ha podido facilitar la extracción de información sensible del 'chatbot' de manera automática sin que la víctima tuviera que realizar ninguna acción, con el envío de un 'email' malicioso.

Copilot de Microsoft es un 'chatbot' que utiliza el conocimiento preexistente procedente de su entrenamiento para responder a las cuestiones del usuario, pero también información de contexto que recupera de fuentes externas, como pueden ser documentos.

Se trata de una proceso de optimización conocido como generación mejorada por recuperación (RAG, por sus siglas en inglés) que permite a los modelos de lenguaje grandes ofrecer resultados originales y más precisos con los que responder mejor al usuario.

En el caso de Microsoft 365 Copilot, el 'chatbot' acude a Microsoft Graph para recuperar cualquier información relevante del entorno organizacional del usuario, lo que incluye la bandeja de entrada de su correo, el almacenamiento de OneDrive y el shitorial de chat de Teams, entre otros.

Aunque lo normal es que el usuario tenga acceso solo a sus archivos, la integración de Copilot con Graph "lo expone potencialmente a amenazas externas", precisamente lo que ocurre con EchoLeak.

EchoLeak es una vulnerabilidad de inteligencia artificial cero clic identificada por la firma de seguridad Aim Security, que aprovecha los fallos de diseño de Copilot comochatbo RAG para que un actor externo pueda extraer la información sensible de contexto, como explica en su blog oficial.

Para explotar esta vulnerabilidad, los investigadores enviaron un correo electrónico malicioso de gran extensión, con referencias a «información que está fuera del alcance del correo electrónico», que Copilot recuperaba a ser preguntado sobre varios temas, facilitano así su robo.

Este ataque es en realidad es una cadena de ataques, "la primera de cero clics detectada en un producto de IA generativa ampliamente utilizado que se basa fundamentalmente en una vulnerabilidad de IA y no en el comportamiento específico del usuario", subrayan desde Aim Security.

Pese a que se trata de una vulnerabilidad considerada como crítica por los investigadores de Aim Security, es poco probable que los usuarios de Microsoft 365 Copilot se vean afectados por ella, por la propia configuración predeterminada del 'chatbot' y porque se pueden establecer etiquetas que permite excluir los correos electrónicos externos.

Sin comentarios

No hay ningún comentario por el momento.

Lo más visto