Con la presentación pública de las herramientas de Inteligencia Artificial LLM (Large Language Models) se está extendiendo la curiosidad por conocer sus usos, así como experimentar y descubrir qué aplicaciones prácticas pueden tener como asistentes en el campo laboral. Para ello se les plantean problemas o tareas y se les proporcionan los datos que se estiman necesarios para su resolución. Estos datos en ocasiones pueden incluir información confidencial acerca de clientes, código fuente desarrollado en la compañía u otro tipo de información sensible.
Al actuar de este modo se está pasando por alto que estas herramientas se han diseñado pensando en su evolución por medio del aprendizaje (o, con mayor propiedad, del entrenamiento), y los datos que reciben quedan almacenados y son susceptibles de ser reutilizados en otras consultas que lleguen desde otros ámbitos.
De hecho es conveniente pensar en ellas, al menos en el caso de las versiones gratuitas, como herramientas parcialmente afinadas que los propios usuarios contribuyen a mejorar con sus interacciones y aportaciones, lo que incluye los datos que se utilicen. Por este motivo ya hay grandes compañías que han decidido limitar su uso o insistir en la concienciación del personal para hacer un uso seguro de ellas.