Investigadores en ciberseguridad han hecho pública la existencia de una vulnerabilidad de seguridad que afecta a Google Gemini, el asistente de inteligencia artificial de Google, y que permite la exposición de datos privados de Google Calendar mediante técnicas de inyección indirecta de prompts.
Según la información publicada, un atacante puede enviar a la víctima una invitación de calendario aparentemente legítima que contiene un prompt malicioso oculto en la descripción del evento. Este contenido no ejecuta ninguna acción inmediata ni requiere interacción directa por parte del usuario.
El ataque se activa cuando la persona afectada realiza posteriormente una consulta inocua a Gemini relacionada con su agenda, por ejemplo preguntando por las reuniones de un día concreto. En ese momento, el sistema de inteligencia artificial procesa el contenido malicioso de la invitación y puede extraer información sensible como reuniones privadas, resúmenes de eventos o datos almacenados en el calendario, llegando incluso a crear nuevos eventos accesibles para el atacante con la información exfiltrada.
Los investigadores señalan que, en determinadas configuraciones empresariales de Google Calendar, los eventos generados pueden quedar visibles para terceros, permitiendo el acceso a la información sin que el usuario sea consciente del incidente.
La vulnerabilidad fue identificada por investigadores de Miggo Security y comunicada de forma responsable. Google indicó que los servicios afectados funcionaban “según el diseño previsto” en el momento del análisis, aunque el caso pone de manifiesto los riesgos asociados a la integración de sistemas de inteligencia artificial con servicios corporativos y datos sensibles.
Este incidente se suma a otros hallazgos recientes que evidencian que las vulnerabilidades en sistemas basados en IA ya no se limitan al código tradicional, sino que también afectan al lenguaje natural, al contexto y al comportamiento de los modelos durante su ejecución.
Los expertos advierten de que el uso creciente de asistentes de inteligencia artificial en entornos corporativos y administrativos amplía la superficie de ataque y requiere nuevas medidas de seguridad, especialmente en el control de identidades, permisos y contenidos procesados por los modelos.
Las organizaciones que utilicen herramientas de IA integradas con servicios de productividad deben revisar sus configuraciones de seguridad, limitar la visibilidad de los eventos de calendario y reforzar los controles frente a posibles escenarios de inyección de prompts y exfiltración de información.
La divulgación de este caso refuerza la necesidad de evaluar de forma continua los riesgos asociados al uso de inteligencia artificial en entornos profesionales y administrativos.