Titular e introducción
Durante dos años el debate sobre IA generativa se ha resumido en un mantra: cuanto más inteligente el modelo, mejor. La conversación que TechCrunch ha mantenido con Michael Gerstenhaber, responsable de Cloud AI en Google, rompe ese esquema. Él habla de tres fronteras que los modelos están empujando a la vez: inteligencia, latencia y coste a gran escala. Detrás de esa idea hay algo muy práctico: un nuevo marco mental para quien diseña productos, negocia con proveedores cloud o intenta cumplir con regulaciones como el GDPR o la futura ley europea de IA. En este artículo analizamos qué cambia con esta visión y qué implica para Europa y el mundo hispanohablante.
La noticia en breve
Según recoge TechCrunch, Michael Gerstenhaber, vicepresidente de producto en Google Cloud y responsable de la plataforma Vertex AI, propone una visión en tres dimensiones del progreso de los modelos de IA. Tras su paso por Anthropic y ahora en Google, sostiene que los modelos avanzan simultáneamente en tres ejes: capacidad intelectual bruta, tiempo de respuesta y viabilidad económica cuando hay que procesar volúmenes impredecibles de peticiones.
Para explicarlo, recurre a ejemplos. En tareas complejas como la generación de código, las empresas buscan la máxima inteligencia, aunque la respuesta tarde minutos. En interacciones con clientes —por ejemplo en atención al cliente—, la inteligencia está limitada por un presupuesto de latencia muy estricto: de nada sirve tener razón si el usuario ya colgó. Y en cargas masivas como la moderación de contenido en redes sociales, la variable crítica pasa a ser el coste por llamada.
Gerstenhaber también aborda por qué los sistemas «agénticos» —agentes de IA capaces de actuar de forma autónoma sobre herramientas y datos— se están incorporando más despacio de lo esperado. A su juicio faltan patrones consolidados de auditoría, autorización y despliegue seguro, salvo en el mundo del desarrollo software, donde procesos humanos de revisión ya están muy maduros.
Por qué importa: un marco útil para quienes construyen con IA
La teoría de las tres fronteras suena simple, pero es un correctivo necesario al fetichismo del modelo «más listo». Para cualquier responsable de producto, tecnología o innovación, la pregunta relevante no es qué modelo es el más avanzado, sino cuánta inteligencia necesito, con qué latencia y a qué coste, para este caso concreto.
Los grandes beneficiados son los equipos pragmáticos. Si usted es CTO en una pyme española o directora de producto en una fintech mexicana, probablemente ya intuía que el «modelo más grande» no suele ser el óptimo. Este marco legitima decisiones como combinar un modelo ligero para la mayoría de las consultas de soporte con uno más potente reservado solo para reclamaciones críticas, o usar modelos pequeños especializados para clasificación masiva.
Los proveedores cloud con portafolios amplios también salen reforzados. Google puede colocar distintas variantes de Gemini a lo largo de estas tres dimensiones: las más potentes para tareas profundas, las rápidas para experiencias conversacionales y las más baratas para tareas repetitivas a gran escala. OpenAI y Anthropic siguen un patrón similar con sus familias de modelos. Que un VP de Google verbalice explícitamente este enfoque indica que la era de un único «modelo estrella» ha terminado.
¿Quién pierde? Startups cuya única propuesta es «nuestro modelo es un poco más preciso» sin una historia sólida de coste, latencia o integración. Y empresas que siguen tratando la IA como una línea homogénea de gasto en lugar de como un portfolio de capacidades con restricciones operativas muy distintas.
El otro mensaje fuerte es sobre los agentes: el cuello de botella ya no es la capacidad de los modelos, sino la ausencia de procesos, controles y herramientas que permitan delegar realmente trabajo en sistemas autónomos sin asumir riesgos inaceptables.
El contexto amplio: de un «cerebro gigante» a un sistema distribuido
La visión de Gerstenhaber encaja con varias tendencias que ya veníamos viendo en el sector.
En primer lugar, aclara por qué todos los grandes laboratorios han pasado de un único modelo «flagship» a familias de modelos. OpenAI, Anthropic y Google ofrecen hoy distintas variantes calibradas en el eje calidad–latencia–precio. No es solo segmentación comercial: están ocupando diferentes puntos en ese espacio tridimensional de inteligencia, velocidad y coste.
En segundo lugar, reorienta la conversación sobre sistemas agénticos. Muchas demos actuales parecen usar martillos de titanio para clavar chinchetas: agentes orquestados por el modelo más caro para tareas rutinarias. Si aceptamos que los procesos reales combinan pasos de razonamiento profundo, interacciones ultrarrápidas y clasificación masiva, entonces un buen framework de agentes tendrá que enrutar dinámicamente entre varios modelos y apoyarse en cachés, precálculos y reglas de negocio. La verdadera batalla deja de ser el modelo y pasa a la capa de orquestación.
En tercer lugar, abre espacio para una nueva capa de infraestructura: auditoría detallada de lo que hace un agente, control fino de qué datos puede usar, entornos de simulación antes de ponerlo en producción… Todo esto recuerda al nacimiento del movimiento DevOps y de las microarquitecturas: cuando el problema deja de ser la velocidad de una máquina y pasa a ser la complejidad del sistema.
Históricamente, ya hemos vivido transiciones parecidas. El salto de servidores monolíticos a microservicios cambió el foco de los GHz a los SLO, la observabilidad y el coste por request. La IA generativa está siguiendo un camino similar: del «coeficiente intelectual» de un único modelo a la ingeniería de sistemas completos.
La mirada europea e iberoamericana: regulación, coste y talento
Desde Europa, las ideas de Gerstenhaber dialogan directamente con la nueva regulación. En la frontera de inteligencia, los modelos que toman decisiones sobre crédito, empleo o salud entrarán previsiblemente en la categoría de alto riesgo del futuro Reglamento de IA de la UE. Eso implica gestión de riesgos, documentación exhaustiva, registros de actividad y supervisión humana. La obsesión de la Comisión Europea por la trazabilidad encaja muy bien con la necesidad de auditar agentes que menciona Gerstenhaber.
En la frontera de latencia, muchas empresas españolas y latinoamericanas están probando chatbots y copilotos de IA para atención al cliente en banca, telecomunicaciones y servicios públicos. Aquí las expectativas culturales importan: un usuario madrileño o limeño no va a tolerar esperas eternas a cambio de respuestas ligeramente mejores. Además, en sectores como la banca existen tiempos máximos de respuesta fijados por reguladores.
En la frontera de coste y escala, plataformas con contenido generado por usuarios —desde marketplaces europeos hasta redes sociales latinoamericanas— necesitan moderar a gran volumen cumpliendo leyes locales sobre discurso de odio y desinformación, y el Reglamento de Servicios Digitales en la UE. Sería ruinoso pasar cada comentario por el modelo más caro. Tiene más sentido un sistema por capas: filtros baratos primero, modelos más sofisticados para casos dudosos y, en última instancia, revisión humana.
Para los proveedores europeos y latinoamericanos de cloud e IA esto es amenaza y oportunidad. La integración vertical de Google —centros de datos, chips, modelos, plataforma de agentes e interfaces finales— es difícil de igualar. Pero actores locales pueden diferenciarse en soberanía de datos, cumplimiento normativo sectorial (finanzas, salud, sector público) y soluciones llave en mano que ya vienen alineadas con GDPR, el AI Act y normativas latinoamericanas de protección de datos.
Mirando hacia adelante: de elegir modelo a diseñar sistemas
Si tomamos en serio esta visión, los próximos años de adopción de IA no vendrán marcados por un único «salto cuántico» en inteligencia, sino por la madurez con la que las organizaciones diseñen sistemas a lo largo de las tres fronteras.
Veremos menos debates del tipo «¿GPT o Gemini?» y más discusiones de arquitectura: para este flujo concreto, ¿cuál es la latencia máxima aceptable?, ¿qué tasa de error podemos asumir?, ¿cuánto podemos gastar por interacción? A partir de ahí, la elección de uno o varios modelos se convierte en un ejercicio de optimización bajo restricciones, no en una guerra de religión sobre benchmarks.
Es probable que los grandes clouds ofrezcan cada vez más perfiles predefinidos: optimizado para coste, para velocidad o para calidad, enrutando de forma transparente entre distintos modelos. Eso mejora la eficiencia, pero complica la transparencia. Reguladores y clientes querrán saber qué sistema concreto tomó una decisión, sobre todo en ámbitos sensibles.
En el terreno de los agentes, la carencia de patrones de auditoría y autorización que señala Gerstenhaber se llenará con nuevas herramientas: sandboxes para probar agentes, entornos de simulación, lenguajes formales de políticas y nuevos roles dentro de las empresas (piense en algo como «Agent Ops», análogo al SRE en operaciones). Las organizaciones europeas, acostumbradas a procesos de cambio muy formalizados, podrían moverse aquí más cómodamente que startups ligeras de Silicon Valley.
Los riesgos no desaparecen. El primero es el lock‑in: plataformas muy integradas como Vertex AI facilitan arrancar, pero complican cambiar de proveedor si suben precios o cambia la regulación. El segundo es el riesgo de gobernanza: agentes con demasiado poder y pocos controles pueden provocar incidentes que detonen respuestas regulatorias severas, especialmente en la UE. El tercero es el riesgo financiero: si todo se resuelve con el modelo más caro, la factura de la nube acabará frenando la innovación.
En resumen
La teoría de las tres fronteras de Google es mucho más que una metáfora elegante: es un guion para la próxima fase de adopción de IA en empresas. Inteligencia, latencia y coste no son métricas aisladas, sino palancas estratégicas que determinan si una solución será viable, confiable y legalmente sostenible. Quienes adopten pronto esta mentalidad de sistema —y construyan desde el principio capacidades de auditoría y control para agentes— tendrán ventaja. Quienes sigan persiguiendo solo «el modelo más listo» probablemente pagarán de más, entregarán de menos y chocarán antes con los reguladores. La pregunta clave es: ¿en qué punto de estas tres fronteras debería situarse realmente su próximo proyecto de IA?



