1. Titular e introducción
El nuevo cuello de botella para explorar el universo no está en los cohetes, sino en las mismas GPU que entrenan chatbots y generadores de imágenes. Una nueva generación de telescopios espaciales y observatorios en tierra está a punto de inundar a la comunidad científica con petabytes de datos, justo cuando el mercado global de cómputo acelerado vive su mayor tensión. Eso coloca a la astronomía, y a muchas otras disciplinas, en competencia directa con las grandes plataformas de IA. En este análisis vemos qué cambia con Roman, Webb y Rubin, y qué significa esto para Europa y el mundo hispanohablante.
2. La noticia en breve
Según informa TechCrunch, la NASA planea lanzar el telescopio espacial Nancy Grace Roman en septiembre de 2026, unos ocho meses antes de lo previsto. A lo largo de su vida útil, Roman podría generar alrededor de 20.000 terabytes de datos. Esta avalancha se sumará a los aproximadamente 57 GB diarios de imágenes que ya envía el telescopio espacial James Webb y al futuro sondeo del Observatorio Vera C. Rubin en Chile, que se estima producirá unos 20 TB de datos por noche. Para comparar, el veterano Hubble entregaba solo 1–2 GB de lecturas al día.
La comunidad astronómica recurre cada vez más a GPU y modelos de deep learning para procesar estos volúmenes. TechCrunch destaca el trabajo del astrofísico Brant Robertson (UC Santa Cruz), colaborador de Nvidia y coautor de Morpheus, un modelo capaz de identificar galaxias en grandes conjuntos de datos. Morpheus está migrando de redes convolucionales a transformadores, y el grupo también desarrolla modelos generativos para mejorar imágenes de telescopios terrestres. Sin embargo, el clúster de GPU financiado por la National Science Foundation que utiliza Robertson ya empieza a quedarse atrás, justo cuando aumenta la demanda y la financiación pública en EE. UU. se ve presionada políticamente.
3. Por qué importa
La carrera espacial del siglo XXI se libra también en centros de datos. Construir telescopios es caro, pero convertir sus datos en descubrimientos depende de una infraestructura de cómputo que hoy está dominada por intereses comerciales.
¿Quién gana? Obviamente, los fabricantes de GPU y los grandes proveedores de nube, que pueden vender las mismas tarjetas tanto a laboratorios de IA generativa como a instituciones científicas. También salen beneficiadas las big tech con capacidad para reservar a largo plazo miles de GPU y decidir, de facto, qué proyectos tienen prioridad.
¿Quién pierde? La ciencia pública en general, y la astronomía académica en particular. Un grupo de investigación en una universidad de España, México o Argentina difícilmente podrá competir en precio y volumen con un laboratorio de IA respaldado por un gigante tecnológico estadounidense. Eso se traduce en colas más largas, proyectos recortados y menos oportunidades para jóvenes investigadores.
Además, la brecha entre centros ricos y pobres se amplía. Si los análisis punteros requieren modelos gigantescos y entrenamiento intensivo, solo los que tienen chequera o acceso privilegiado a supercomputadores podrán estar en la frontera. El riesgo es claro: que los datos de telescopios financiados con dinero público terminen explotados principalmente por unos pocos nodos de élite, mientras el resto de la comunidad se conforma con migajas de cómputo.
4. El cuadro general
Esta historia encaja en varias tendencias que llevan años gestándose.
Primero, la escasez estructural de GPU. Desde el auge de los grandes modelos de lenguaje, la demanda por aceleradores de gama alta supera a la oferta. Las nubes restringen el acceso, los gobiernos hablan de «soberanía digital» y las startups presumen de haber asegurado unos cientos de H100 como si fueran concesiones mineras. La computación se está volviendo un recurso geopolítico.
Segundo, la externalización de la infraestructura científica. En lugar de construir y gobernar sus propios centros de datos, muchos proyectos de investigación dependen ya casi por completo de nubes comerciales. Esto da flexibilidad, pero también poder de veto a empresas cuyo objetivo no es precisamente maximizar el acceso abierto ni la reproducibilidad a largo plazo.
Tercero, la “IA‑ización” de todas las ciencias. La transición en astronomía de tuberías clásicas a transformadores y modelos generativos refleja lo que vemos en biología estructural, medicina o ciencias de materiales. No es solo una mejora de herramientas: redefine las reglas del juego. Si para hacer ciencia de frontera necesitas tantas GPU como un unicornio de IA, la puerta de entrada queda muy alta.
En el pasado, grandes proyectos como el CERN o el Human Genome Project invirtieron en redes e infraestructuras propias, con modelos de gobernanza públicos. Ahora existe el peligro de que esa capa crítica pase a depender de contratos con tres o cuatro plataformas globales.
5. El ángulo europeo e iberoamericano
Para Europa, el desafío es doble: proteger su liderazgo científico y reducir su dependencia tecnológica. Misiones como Euclid y Gaia, los observatorios de ESO en Chile y varias futuras instalaciones en Canarias y otros puntos del continente generan volúmenes de datos comparables a los de Roman o Rubin. Si el acceso a GPU sigue siendo escaso y caro, los equipos europeos podrían verse en clara desventaja frente a aquellos con mejores acuerdos con proveedores estadounidenses.
La UE ha empezado a reaccionar con iniciativas como EuroHPC y nuevos superordenadores en Finlandia, Italia, España o Alemania. Pero en muchos casos las particiones de GPU son limitadas y se llenan rápido. Sin criterios transparentes de asignación y sin una protección explícita para proyectos de interés público, la tentación de priorizar contratos industriales será fuerte.
Para el mundo hispanohablante en América Latina, la situación tiene matices propios. Países como Chile, México, Argentina o Colombia participan en grandes colaboraciones astronómicas, pero disponen de menos recursos para construir centros de datos de última generación. Suelen depender aún más de la nube comercial, lo que incrementa la vulnerabilidad frente a cambios de precios o restricciones de uso.
Mientras el Reglamento de IA europeo (AI Act) se centra sobre todo en la seguridad y transparencia de los sistemas, casi no se discute cómo garantizar acceso equitativo a la capacidad de cómputo necesaria para construir alternativas abiertas y públicas.
6. Mirando hacia adelante
¿Qué podemos esperar en los próximos años?
En lo técnico, veremos cada vez más “IA en el borde”: modelos incrustados en los propios instrumentos, realizando filtrado, compresión o clasificación inicial antes de enviar datos a tierra. Eso reducirá la carga sobre los centros de datos, pero también trasladará parte del problema de GPUs a la fase de diseño de hardware científico.
En lo económico, es probable que sigamos en un escenario de cuasi‑escasez: suficiente oferta para los grandes actores, tensión permanente para el resto. Esto incentivará soluciones creativas: consorcios académicos que compartan clústeres, acuerdos entre observatorios y centros de supercomputación, o incluso “bancos de GPU” financiados por la UE o bancos de desarrollo regionales.
En lo político, la cuestión clave será si tratamos el cómputo como un bien público. ¿Reservarán los estados una parte fija de su capacidad de supercomputación para ciencia abierta? ¿Impondrán condiciones a la cesión de GPU públicas a empresas privadas? ¿Se crearán mecanismos de gobernanza internacional para priorizar cargas de trabajo con impacto social – como el clima o la salud – frente a productos puramente comerciales?
Para el lector, las señales a observar son claras: dónde se instalan los próximos grandes centros de datos, quién los financia y qué porcentaje de su capacidad queda realmente disponible para la ciencia y no solo para la próxima ola de unicornios de IA.
7. Conclusión
La escasez de GPU ha dejado de ser un problema de nicho para convertirse en un factor que condiciona qué ciencia es posible y quién puede hacerla. Los cazadores de galaxias compiten ya, chip a chip, con chatbots y sistemas de recomendación. Si queremos que telescopios como Roman, Webb y Rubin sirvan al interés público global y no solo engorden las cuentas de unos pocos proveedores, debemos asumir que la computación es infraestructura crítica y planificarla como tal. La pregunta incómoda es si reaccionaremos a tiempo o cuando ya tengamos una astronomía de primera clase… con cómputo de tercera.



