Agentes de inteligencia artificial y nuevos riesgos de seguridad en entornos locales

Imagen

El uso de agentes de inteligencia artificial con capacidad para ejecutar acciones de forma autónoma está creciendo de manera progresiva en distintos ámbitos. Estas herramientas permiten automatizar tareas, interactuar con aplicaciones y mantener información entre sesiones, lo que abre nuevas posibilidades desde el punto de vista operativo. Al mismo tiempo, plantea nuevos retos en materia de ciberseguridad que conviene analizar con atención.

En los últimos meses han aparecido soluciones que no se limitan a ofrecer recomendaciones, sino que pueden actuar directamente sobre el sistema, acceder a aplicaciones locales y adaptar su comportamiento en función de los objetivos definidos. Este tipo de funcionamiento supone un cambio respecto al modelo tradicional de software y requiere una revisión de los controles de seguridad habituales.



Acceso al sistema y gestión da información

Una de las principales características de estos agentes es su capacidad para mantener memoria persistente y acceder de forma amplia al sistema operativo. Para funcionar correctamente, suelen almacenar configuración, registros de actividad y otra información relevante en archivos locales. En algunos casos, estos datos pueden encontrarse en texto plano o en ubicaciones fácilmente identificables.

Desde el punto de vista de la seguridad, este aspecto resulta especialmente relevante. Si el equipo en el que se ejecuta el agente sufre un compromiso, esa información podría quedar expuesta y ser utilizada de forma indebida.



Impacto potencial en caso de incidente

A diferencia de otros escenarios, en los que la filtración de una credencial tiene un impacto limitado, la información gestionada por un agente autónomo puede ofrecer un contexto mucho más amplio. Detalles sobre proyectos, hábitos de trabajo, contactos o procesos internos pueden facilitar ataques más dirigidos y difíciles de detectar.

En el ámbito de las administraciones públicas y de las entidades locales, este riesgo adquiere una especial importancia por la naturaleza de la información tratada y por la necesidad de garantizar la continuidad de los servicios.



La importancia de definir identidades y accesos

Una línea de trabajo que comienza a consolidarse es la necesidad de tratar estos agentes como entidades con identidad propia, diferenciadas de las personas usuarias. Esto implica asignarles permisos específicos, limitar su acceso a los recursos necesarios y registrar de forma adecuada las acciones que realizan.

Los modelos de autorización tradicionales, basados en permisos concedidos una sola vez, resultan insuficientes cuando se trata de sistemas que pueden cambiar su comportamiento con el tiempo. En estos casos, el control del acceso debe revisarse de forma continua y ajustarse al contexto de uso.



Seguridad y gobernanza desde el diseño

El objetivo no debe ser evitar el uso de este tipo de herramientas, sino integrarlas de forma segura y gobernable. Aplicar principios como el mínimo privilegio, la segregación de funciones, la trazabilidad de las acciones y la posibilidad de revocar accesos permite reducir riesgos y mejorar el control.

Este enfoque resulta coherente con los principios del Esquema Nacional de Seguridad y contribuye a una adopción responsable de tecnologías emergentes en el sector público.



Conclusión

Los agentes de inteligencia artificial formarán parte del ecosistema tecnológico en los próximos años. Analizar sus implicaciones desde el punto de vista de la ciberseguridad y adoptar medidas proporcionadas desde el inicio permitirá aprovechar sus ventajas sin comprometer la seguridad de las organizaciones. En el caso de las entidades locales y de la Administración Pública, este análisis previo resulta especialmente relevante para garantizar un uso seguro y responsable de estas tecnologías.