Cuando el jefe de ciberdefensa de EEUU filtra datos a ChatGPT
1. Titular e introducción
El responsable máximo de ciberdefensa de Estados Unidos copiando documentos sensibles en la versión pública de ChatGPT: suena a chiste, pero ocurrió.
El caso del director interino de CISA, Madhu Gottumukkala, no es solo un problema interno de Washington. Es una señal de alarma sobre cómo gobiernos y empresas están usando (y abusando de) la inteligencia artificial generativa sin la cultura, las normas ni las herramientas adecuadas. En este artículo analizamos qué pasó, por qué es relevante para Europa y América Latina y qué deberían hacer ya las organizaciones de habla hispana para no protagonizar su propio escándalo.
2. La noticia, en breve
Según resume Ars Technica a partir de una investigación de Politico, el director interino de la Agencia de Seguridad de Infraestructura y Ciberseguridad de EEUU (CISA) subió el verano pasado documentos de contratación del Departamento de Seguridad Nacional (DHS) a una instancia pública de ChatGPT.
Los archivos no estaban clasificados como secretos, pero sí marcados como de uso exclusivamente oficial, una categoría que en el DHS se reserva para información sensible que no debe salir de las redes gubernamentales. Las cargas habrían activado sistemas internos diseñados para detectar posibles fugas de datos.
La mayoría del personal del DHS tiene bloqueado el acceso a ChatGPT y debe usar herramientas internas de IA, como “DHSChat”, alojadas en la propia infraestructura gubernamental. Gottumukkala había obtenido una excepción para usar ChatGPT. Según Ars Technica, el DHS abrió una investigación que podría acarrear consecuencias disciplinarias. El episodio se suma a críticas por recortes de personal en CISA, tensiones internas y duros interrogatorios en el Congreso.
3. Por qué importa de verdad
Este caso importa menos por los documentos concretos implicados y más por lo que revela sobre el momento que vivimos.
Primero, el símbolo es devastador. CISA es la agencia que da lecciones al resto del mundo sobre higiene básica de ciberseguridad. Que su máximo responsable, con décadas de experiencia en TI, utilice un chatbot masivo como si fuera un bloc de notas privado, transmite un mensaje claro: ni siquiera en la élite de la ciberseguridad hay una comprensión realista de los riesgos de la IA generativa.
Segundo, el problema es estructural. Una vez que un documento sensible entra en un modelo de lenguaje, la organización pierde control. Dependiendo de la configuración del proveedor, ese contenido puede almacenarse, emplearse para perfeccionar el modelo o quedar expuesto en una brecha futura. Incluso sin mala intención por parte del proveedor, cada nuevo uso aumenta la superficie de ataque y la posibilidad de filtración indirecta a través de respuestas a otros usuarios.
Tercero, se hace visible la brecha entre el discurso político de “modernizar con IA” y la realidad del día a día. El DHS ya disponía de una herramienta interna precisamente para evitar que información sensible saliera de sus redes. Sin embargo, el director de CISA forzó una excepción para usar el producto más cómodo y popular. Es el mismo patrón que vemos en empresas cuando la dirección exige resultados rápidos con IA, pero no invierte en gobernanza, formación ni alternativas seguras.
¿Quién gana y quién pierde? Ganan los proveedores de soluciones de “IA soberana” u “on‑premise”, que ahora pueden mostrar este caso en cada presentación comercial. Pierden la credibilidad institucional de CISA y, por extensión, la confianza en la capacidad de los gobiernos para manejar tecnologías críticas sin politizarlas ni trivializarlas.
4. La foto completa
Puesto en contexto, el incidente encaja en una historia que ya conocemos.
Antes fue la nube: empleados subiendo contratos a su Dropbox personal. Antes, las apps de mensajería: ministros despachando asuntos de Estado por WhatsApp. Antes, los wearables: soldados compartiendo rutas de entrenamiento y revelando bases militares. La tecnología se adopta más rápido que los controles, y la comodidad gana casi siempre a la prudencia.
La IA generativa es la nueva iteración, pero con un matiz peligroso. Un archivo filtrado es un suceso puntual. Un modelo que ha “aprendido” a partir de información sensible convierte esa filtración en una capacidad duradera que puede ser explotada una y otra vez.
Los reguladores ya reaccionan. La autoridad de protección de datos italiana suspendió temporalmente ChatGPT en 2023. La agencia de ciberseguridad británica y la europea ENISA desaconsejan abiertamente introducir información confidencial en modelos públicos. Grandes tecnológicas venden versiones “enterprise” de sus LLM precisamente porque los trabajadores ya estaban copiando código fuente y datos de clientes en la versión gratuita.
En el caso de CISA se suma además una crisis de liderazgo: recortes masivos de personal, choques políticos por el papel de la agencia en la protección electoral y decisiones internas cuestionadas. Cuando la cultura organizativa se resquebraja, la seguridad suele ser la primera víctima.
Para Europa y América Latina, que miran a CISA como referencia en políticas de ciberseguridad, esto es un recordatorio incómodo: incluso los “adultos en la sala” pueden comportarse como usuarios inexpertos cuando se trata de nuevas tecnologías.
5. Clave europea e iberoamericana
En Europa la situación es especialmente delicada. La UE impulsa la digitalización y el uso de IA en la administración pública, mientras refuerza al mismo tiempo el marco regulatorio con el RGPD, la Directiva NIS2, la Ley de Servicios Digitales y el futuro Reglamento de IA.
Pero ninguna norma sustituye a decisiones concretas: ¿puede un funcionario en Madrid pegar un borrador de contrato en un chatbot público? ¿Y un técnico de una empresa energética en México o Argentina que quiera resumir un informe interno con IA? Muchas veces la respuesta práctica es sí, porque no hay alternativas oficiales igual de cómodas.
Algunas instituciones europeas ya han prohibido el uso de LLM públicos en equipos oficiales. Otras están desarrollando asistentes internos alojados en centros de datos propios o de proveedores europeos. Sin embargo, las excepciones para altos cargos siguen siendo frecuentes. El caso CISA demuestra que precisamente en la cúpula es donde esas excepciones se vuelven más peligrosas.
Para el ecosistema hispanohablante, desde startups en Barcelona o Ciudad de México hasta bancos en Madrid o Lima, las lecciones son claras:
- Definir políticas explícitas sobre qué nunca debe entrar en un modelo público (datos personales, código propietario, estrategias de negocio, información de seguridad).
- Ofrecer alternativas internas atractivas; si la única opción segura es engorrosa, la gente seguirá usando la vía rápida.
- Alinear los proyectos de “transformación con IA” con las obligaciones regulatorias presentes y futuras, en lugar de tratarlos como experimentos aislados.
6. Mirando hacia adelante
Es razonable asumir que veremos más incidentes similares, tanto en gobiernos como en grandes empresas. La presión por “usar IA” es enorme, y los incentivos individuales (ahorrar tiempo, impresionar al jefe) chocan con las necesidades colectivas de seguridad.
En EEUU habrá ruido político en torno a la figura de Gottumukkala, pero lo importante será si el DHS traduce el escándalo en cambios reales: nuevas políticas, menos excepciones, formación obligatoria para cargos directivos y quizá una revisión profunda de cómo se autorizan proyectos de IA.
En Europa y América Latina conviene observar tres tendencias en los próximos 12–24 meses:
- Políticas de uso de IA claras en administraciones públicas y grandes empresas, acompañadas de campañas de sensibilización que expliquen no solo el “qué”, sino el “por qué”.
- Despliegue de modelos de lenguaje internos o regionales, ya sean basados en código abierto o licenciados, con garantías de que los prompts y documentos no se mezclan con modelos públicos.
- Integración de la “higiene de IA” en auditorías de seguridad y cumplimiento normativo, de forma que el uso irresponsable de modelos públicos se considere un riesgo operacional, no solo una desobediencia de política interna.
Quedan interrogantes complejos: ¿cómo verificar las promesas de los proveedores sobre aislamiento de datos? ¿Cómo registrar y auditar el uso de IA sin caer en vigilancia masiva de empleados? ¿Qué hacer cuando la filtración no es un pliego de contratación, sino datos médicos o información crítica sobre infraestructuras?
Las organizaciones que se adelanten a estas preguntas y construyan ahora su gobernanza de IA tendrán una ventaja competitiva clara frente a las que reaccionen solo cuando algo sale en la prensa.
7. Conclusión
La filtración de CISA a ChatGPT es vergonzosa para la agencia, pero el problema de fondo es mucho más amplio: ni siquiera las instituciones más avanzadas están gestionando bien la transición a la IA generativa. Para gobiernos y empresas de habla hispana, este es un aviso gratuito. O se establecen reglas estrictas y realistas sobre cómo se usa la IA – empezando por la alta dirección – o tarde o temprano sus propios secretos acabarán alimentando el modelo de otro. La decisión es sencilla: ¿aprender de este error… o esperar al suyo?



