1. Titular e introducción
Que un chatbot ayude a redactar las normas que determinan cada cuánto se revisa un avión o cómo se vigilan los oleoductos no es un detalle menor: es un cambio de modelo. El Departamento de Transporte de Estados Unidos (DOT) ha empezado a usar Google Gemini para elaborar borradores de regulaciones de seguridad, priorizando la rapidez sobre la precisión, según revelan ProPublica y Ars Technica.
Este movimiento es mucho más que una excentricidad burocrática estadounidense. Es una señal temprana de hacia dónde puede ir la relación entre gobiernos, grandes tecnológicas y normas que afectan directamente a nuestra seguridad, también en Europa y en América Latina.
2. La noticia en breve
De acuerdo con una investigación de ProPublica, recogida y ampliada por Ars Technica, el Departamento de Transporte de EEUU está utilizando el modelo de IA Gemini de Google para redactar borradores de regulaciones federales en ámbitos como la aviación, el tráfico por carretera y la seguridad de oleoductos.
Documentos internos citados por estos medios muestran que la dirección del DOT quiere acelerar de forma drástica la redacción de normas: textos que antes tardaban semanas o meses deberían estar listos en unos 30 días, y Gemini sería capaz de producir un primer borrador en menos de media hora. El principal asesor jurídico del Departamento habría explicado en una reunión que las reglas no tienen por qué ser perfectas, sino suficientemente aceptables para avanzar en el proceso.
Varios funcionarios, bajo anonimato, alertan de que se está usando un chatbot genérico para un trabajo jurídico-técnico extremadamente delicado, en un contexto en el que las alucinaciones de la IA ya han causado problemas en tribunales. ProPublica señala que Gemini se ha utilizado al menos en una norma de la Administración Federal de Aviación aún no publicada. Google, por su parte, exhibe el contrato con el DOT como un caso emblemático de modernización del sector público.
3. Por qué importa
En regulación de seguridad, la diferencia entre “correcto” y “más o menos” puede medirse en vidas humanas. Una mala norma sobre cookies nos llena la pantalla de avisos; una mala norma sobre inspecciones de motores de avión o sobre controles de presión en gasoductos puede acabar en tragedia. El texto legal no es burocracia decorativa: es el último mecanismo que traduce complejidad técnica en obligaciones claras y exigibles. Tratarlo como simple “relleno de palabras” que puede generar una máquina es una renuncia política, no un detalle técnico.
¿Quién gana con este enfoque? A corto plazo, la dirección del DOT y la administración Trump, que pueden presumir de una burocracia más rápida y “pro-innovación”. También Google, que consigue algo más valioso que un contrato: la prueba de que su modelo puede situarse en el núcleo de procesos regulatorios de un gran Estado. Si el DOT llega a operar con la idea de que Gemini hace el 80–90 % del trabajo de redacción, el resto de agencias federales se convierten en mercado potencial.
¿Quién pierde? La ciudadanía, que no sabrá qué partes de las normas que protegen su vida y su entorno han salido de un sistema opaco entrenado con datos desconocidos. Y el funcionariado especialista, cuyo rol se degrada de autor a mero supervisor de lo que spittea la IA, con el consiguiente desgaste de conocimiento institucional. Justo en el momento en que más lo necesitamos para regular vehículos autónomos, drones, sensores IoT y otros sistemas complejos.
Además, hay un coste de legitimidad. Incluso si todas las normas asistidas por IA fueran técnicamente impecables, el simple hecho de descubrir que “las reglas del juego” de la aviación o de los oleoductos las ha escrito en gran parte un chatbot puede erosionar la confianza en el regulador. Y en contextos polarizados, recuperar esa confianza es casi imposible.
4. El cuadro más amplio
El experimento del DOT llega tras un año en el que la IA generativa ya ha dejado en evidencia al sistema judicial. Varios abogados han sido sancionados por presentar escritos plagados de jurisprudencia imaginaria generada por chatbots, y jueces de distintos países han reconocido que pueden ser engañados por textos convincentes pero falsos. La lección es clara: estos modelos son grandes imitadores del lenguaje experto, no garantes de verdad.
Sin embargo, gobiernos de todo el mundo están probando la IA para tareas administrativas: redactar correos, resumir informes, preparar borradores internos. La mayoría de estos usos son de bajo riesgo. Lo del DOT es otra liga: es trasladar la IA al centro mismo del poder normativo, donde se deciden derechos, obligaciones y estándares de seguridad.
La historia ofrece paralelos incómodos. Antes de la crisis financiera de 2008, reguladores y bancos confiaron ciegamente en modelos de riesgo matemáticos que resultaron estar mal calibrados para escenarios extremos. Los modelos no eran “malos” en sí, pero el sistema los elevó a la categoría de oráculo. Ahora vemos un patrón similar: una nueva tecnología, difícil de auditar, se convierte en árbitro silencioso de decisiones con enormes externalidades.
Si miramos a otros sectores críticos, el contraste es evidente. El software que va en un avión o en una central nuclear pasa por certificaciones exhaustivas, pruebas redundantes y revisiones independientes. La idea de que los textos legales que dicen cómo deben operar esos sistemas los escriba en parte un generador genérico de texto, sin garantías comparables, debería encender todas las alarmas en Bruselas, Madrid, Ciudad de México o Buenos Aires.
5. El ángulo europeo e iberoamericano
Aunque el caso sea estadounidense, sus ondas de choque no se quedan allí. Los estándares de la Administración Federal de Aviación y otras agencias de EEUU marcan la pauta global en aviación, logística y transporte de mercancías peligrosas. Aerolíneas europeas y latinoamericanas, así como fabricantes, siguen esas referencias para poder operar en rutas transatlánticas. Si esas referencias empiezan a reflejar sesgos o errores de un modelo comercial de IA, el impacto se exportará directamente.
Europa llega a este debate con un marco distinto. El RGPD, la Ley de Servicios Digitales y la futura Ley de IA insisten en trazabilidad, supervisión humana y responsabilidad clara. Una agencia europea que intentara hacer lo mismo que el DOT –delegar la mayor parte de la redacción en un modelo alojado por una gran plataforma– se enfrentaría a cuestiones serias de protección de datos, de transparencia procedimental y de cumplimiento del principio de “explicabilidad” de decisiones automatizadas.
Para España y América Latina, donde muchos gobiernos están lanzando estrategias de “gobierno digital” con IA incluida, el caso del DOT es un espejo útil. La presión para “no quedarse atrás” frente a Silicon Valley es fuerte, pero hay margen para elegir un modelo diferente: IA como apoyo documentado y auditable, no como coautora invisible de normas. Esa diferencia puede convertirse en ventaja competitiva para administraciones que quieran ser vistas como confiables, no solo como eficientes.
6. Mirando hacia adelante
¿Qué cabe esperar ahora? En EEUU, es probable que, ante el primer incidente serio que se vincule a una norma redactada con ayuda intensiva de IA, lleguen demandas que cuestionen si el DOT actuó con la diligencia debida. Los tribunales pueden empezar a exigir que las agencias documenten cuándo, cómo y con qué controles usaron IA en sus procesos normativos. Hoy casi ninguna administración está preparada para ese nivel de escrutinio.
En el plano político, el experimento puede consolidarse o estallar. Si durante unos años no hay escándalos visibles y las normas parecen funcionar, otros ministerios y otros países imitarán el modelo, muchas veces por presión presupuestaria. Si, por el contrario, ocurre un accidente mediático asociado a un fallo “de redacción” de la IA, el péndulo puede girar hacia una desconfianza generalizada hacia la IA generativa en el sector público.
Las grandes tecnológicas se adelantarán ofreciendo versiones “para gobierno” de sus modelos, con registros de auditoría, datos de entrenamiento más controlados y especialización sectorial. Pero eso no resolverá la cuestión central: ¿dónde trazamos la línea entre asistencia y delegación? ¿Quién asume la responsabilidad política y jurídica de una frase que la máquina propone y el humano apenas revisa?
Para la ciudadanía, en Europa y en el mundo hispanohablante, hay tres señales que conviene vigilar:
- si las administraciones explican públicamente cuándo usan IA en la elaboración de normas;
- si existen auditorías independientes de los textos generados;
- y si el proceso de redacción –incluidos los prompts y versiones intermedias– deja rastro accesible para el control democrático.
Sin eso, avanzamos hacia una “legislación caja negra”, en la que nadie puede decir con claridad quién escribió realmente las reglas del juego.
7. Conclusión
Externalizar de facto la pluma que escribe normas de seguridad aérea y de infraestructuras a un chatbot genérico, a cambio de ganar unas semanas en trámites internos, es un pacto muy desequilibrado: la ganancia es comodidad burocrática; el riesgo, la erosión de la confianza y, en el peor caso, muertes evitables. Si queremos un uso responsable de la IA en la administración, en España, en América Latina y en la UE, hay que defender una frontera clara: la IA como herramienta sometida a control humano y transparencia, no como legislador en la sombra. La cuestión es si exigiremos esa frontera antes de que falle la primera norma escrita “a medias” por una máquina.



