Vulnerabilidade en Google Gemini permite a exposición de datos privados de Google Calendar mediante invitacións maliciosas

Imaxe
Nivel de alerta
Alto

Investigadores en ciberseguridade fixeron pública a existencia dunha vulnerabilidade de seguridade que afecta a Google Gemini, o asistente de intelixencia artificial de Google, e que permite a exposición de datos privados de Google Calendar mediante técnicas de inxección indirecta de prompts.

Segundo a información publicada, un atacante pode enviar á vítima unha invitación de calendario aparentemente lexítima que contén un prompt malicioso oculto na descrición do evento. Este contido non executa ningunha acción inmediata nin require interacción directa por parte da persoa usuaria.

O ataque actívase cando a persoa afectada realiza posteriormente unha consulta inofensiva a Gemini relacionada coa súa axenda, por exemplo preguntando polas reunións dun día concreto. Nese momento, o sistema de intelixencia artificial procesa o contido malicioso da invitación e pode extraer información sensible como reunións privadas, resumos de eventos ou datos almacenados no calendario, chegando incluso a crear novos eventos accesibles para o atacante cos datos exfiltrados.

Os investigadores sinalan que, en determinadas configuracións empresariais de Google Calendar, os eventos xerados poden quedar visibles para terceiros, permitindo o acceso á información sen que a persoa usuaria sexa consciente do incidente.

A vulnerabilidade foi identificada por persoal investigador de Miggo Security e comunicada de forma responsable. Google indicou que os servizos afectados estaban a funcionar “segundo o deseño previsto” no momento da análise, aínda que o caso pon de manifesto os riscos asociados á integración de sistemas de intelixencia artificial con servizos corporativos e datos sensibles.

Este incidente súmase a outros achados recentes que evidencian que as vulnerabilidades nos sistemas baseados en IA xa non se limitan ao código tradicional, senón que tamén afectan á linguaxe natural, ao contexto e ao comportamento dos modelos durante a súa execución.

Os expertos advirten de que o uso crecente de asistentes de intelixencia artificial en contornos corporativos e administrativos amplía a superficie de ataque e require novas medidas de seguridade, especialmente no control de identidades, permisos e contidos procesados polos modelos.

As organizacións que empreguen ferramentas de IA integradas con servizos de produtividade deben revisar as súas configuracións de seguridade, limitar a visibilidade dos eventos de calendario e reforzar os controis fronte a posibles escenarios de inxección de prompts e exfiltración de información.

A divulgación deste caso reforza a necesidade de avaliar de maneira continua os riscos asociados ao uso de intelixencia artificial en contornos profesionais e administrativos.