1. Titular e introducción
A veces, la política tecnológica se resume en un gesto de segundos. En la India AI Impact Summit 2026, el primer ministro Narendra Modi pidió a los líderes de la industria que se tomaran de las manos y las levantaran como símbolo de unidad. Todos obedecieron, salvo dos figuras clave: Sam Altman (OpenAI) y Dario Amodei (Anthropic), que dejaron un hueco visible entre ellos.
Ese hueco es más que una anécdota viral. Es la foto fija de una carrera por el poder en inteligencia artificial que ya no se libra solo en Silicon Valley, y que tiene implicaciones directas para Europa y el mundo hispanohablante. Analicemos qué hay detrás de ese gesto ausente.
2. La noticia en breve
Según informa TechCrunch, el episodio ocurrió durante el India AI Impact Summit 2026 en Nueva Delhi. En un momento del acto, el primer ministro Narendra Modi invitó a varios ejecutivos de empresas de IA al escenario y les pidió que se tomaran de las manos y las levantaran juntos, como señal de compromiso compartido con la innovación en IA.
Todos los presentes en el escenario se unieron de la mano, excepto Sam Altman, director ejecutivo de OpenAI, y Dario Amodei, director ejecutivo de Anthropic, que mantuvieron sus manos separadas, dejando un vacío claro entre ambos.
TechCrunch recuerda que el gesto llega tras meses de tensión. OpenAI anunció planes para introducir publicidad en ChatGPT. Anthropic respondió con anuncios durante la Super Bowl, presentando a Claude como asistente que nunca mostrará anuncios. Altman replicó en X acusando a Anthropic de tergiversar el enfoque de OpenAI.
En la misma cumbre, ambas compañías detallaron su desembarco en India: OpenAI abrirá dos oficinas, se alía con el gigante TCS y lanza herramientas para educación superior; Anthropic inaugura oficina propia y firma un acuerdo con Infosys para desplegar sus modelos tanto internamente como para clientes.
3. Por qué importa
El no‑apretón de manos no va de simpatías personales; revela una fractura estructural en la industria de la IA.
Primero, es un choque de modelos de negocio disfrazado de debate ético. OpenAI explora cómo monetizar asistentes conversacionales mediante anuncios. Anthropic se sitúa en el polo opuesto y sugiere que mezclar publicidad y asistencia basada en IA es incompatible con la confianza del usuario. Para bancos, aseguradoras o administraciones públicas reacias al tracking, esa narrativa resulta tentadora.
Segundo, el lugar lo es todo. Que tanto OpenAI como Anthropic anuncien oficinas y grandes alianzas con TCS e Infosys en el mismo escenario muestra que India se consolida como campo de batalla prioritario. Estos integradores no son meros socios locales; son las tuberías por las que fluirán los modelos hacia empresas y gobiernos de medio mundo, incluida Europa y América Latina. Quien se convierta en su opción "por defecto" gana una ventaja difícil de revertir.
Tercero, la escena erosiona la idea de un frente unido en materia de seguridad de la IA. Los gobiernos buscan señales de que los laboratorios líderes saben competir en el mercado y cooperar en riesgos. Ver a los dos actores más influyentes negarse, aunque sea simbólicamente, a "darse la mano" complica ese relato.
Los ganadores inmediatos son India y sus grandes consultoras tecnológicas, que convierten la rivalidad entre laboratorios estadounidenses en influencia política y económica. Los potenciales perdedores: usuarios, reguladores y ecosistemas locales de IA, que se verán atrapados entre riesgos técnicos y guerras de relato sobre qué significa hacer "IA responsable".
4. El contexto más amplio
Este momento encaja con varias tendencias que llevan tiempo gestándose.
1. Los laboratorios de frontera se convierten en marcas de consumo.
OpenAI y Anthropic eran, hasta hace poco, nombres conocidos sobre todo por desarrolladores. Con ChatGPT y Claude se han colado en el vocabulario cotidiano. Los anuncios en la Super Bowl, los dardos en X y las puestas en escena en cumbres son síntomas de una guerra de marcas: rápido vs. cauto, con anuncios vs. sin anuncios, máximo alcance vs. máxima contención.
2. La geopolítica de la IA se hace multipolar.
El relato simplista de "Estados Unidos vs. China" ya no alcanza. El India AI Impact Summit muestra a un tercer actor que reclama protagonismo: un país con peso demográfico, industria tecnológica potente y ambición de fijar su propia agenda en IA. No es casual que las grandes noticias de OpenAI y Anthropic no se hayan dado en Davos ni en Bruselas, sino en Nueva Delhi.
Para Europa, y también para América Latina, esto es una señal clara: quien controle los grandes escenarios políticos de la IA controlará buena parte de la conversación global.
3. El discurso de seguridad choca con la urgencia comercial.
OpenAI y Anthropic han insistido en los riesgos de la IA avanzada. Pero los inversores y los clientes corporativos pedían algo más que advertencias: productos, precios, acuerdos. El experimento publicitario de OpenAI indica una prioridad: diversificar ingresos, aunque se abra un flanco reputacional. La postura de Anthropic –"nunca anuncios"– no es solo ética, es también una apuesta de posicionamiento frente a clientes premium.
No sería la primera vez que una plataforma tecnológica pasa de prometer una experiencia centrada en el usuario a exprimir todos los resortes de monetización. La gran incógnita es si la IA repetirá el modelo de la economía de la atención… o si la presión regulatoria, sobre todo en la UE, obligará a escribir un guion distinto.
5. Claves para Europa y el mundo hispanohablante
Lo más llamativo desde este lado del mundo es dónde ocurre todo esto: no en Bruselas ni en Madrid, sino en Nueva Delhi, con dos directivos estadounidenses y empresas indias como actores clave.
Europa llega a este momento con un arsenal regulatorio considerable: GDPR, Ley de Servicios Digitales, Ley de Mercados Digitales y el inminente Reglamento de IA. Eso le da capacidad para fijar límites sobre transparencia, usos de alto riesgo y protección de datos.
Sin embargo, la regulación no sustituye al poder de convocatoria. India está usando su tamaño de mercado para atraer centros de decisión, inversión y talento. ¿Dónde está el equivalente europeo o iberoamericano de esta cumbre, el espacio al que OpenAI y Anthropic no puedan permitirse faltar?
Para España y América Latina, la señal es doble:
- Como clientes: muchos proyectos de banca, telecomunicaciones o sector público se implementan vía integradores globales que ya trabajan con TCS e Infosys. Si no se definen criterios claros (por ejemplo, exigencias de soberanía de datos o preferencia por modelos europeos/latinoamericanos cuando existan), la infraestructura de IA quedará de facto estandarizada en torno a pocos laboratorios de EE. UU.
- Como productores: ecosistemas como los de Barcelona, Madrid, Ciudad de México, Buenos Aires o Santiago tienen una ventana para posicionar modelos y soluciones adaptadas a español y portugués, y alineadas con marcos como el de la UE. Pero esa ventana no estará abierta para siempre.
6. Mirando hacia adelante
En los próximos 12–24 meses conviene estar atentos a varios frentes.
1. El experimento publicitario de OpenAI.
Si ChatGPT integra anuncios, serán decisivos los detalles: ¿serán bloques claramente identificados o sugerencias integradas en la conversación? ¿Habrá segmentación avanzada basada en el historial de interacción? Cada paso de más hacia la personalización abre un melón regulatorio en Europa y, potencialmente, en países latinoamericanos que modernizan sus leyes de protección de datos.
2. La batalla por los integradores.
TCS e Infosys son solo la punta del iceberg. Firmas como Accenture, Capgemini, Deloitte, Indra o consultoras regionales en México, Colombia, Chile o Argentina tendrán que elegir qué modelos integran por defecto. Esa elección, aparentemente técnica, marcará qué laboratorios dominan la capa de infraestructura de IA en sectores enteros.
3. Cooperación en seguridad bajo máxima rivalidad.
Gobiernos europeos y latinoamericanos empiezan a exigir compromisos concretos: evaluaciones de modelos, protocolos de respuesta ante incidentes, límites a ciertos usos. La gran pregunta es si OpenAI y Anthropic podrán mantener una mínima cooperación técnica en seguridad mientras su rivalidad comercial se recrudece públicamente.
4. ¿Habrá una respuesta coordinada en el ámbito hispanohablante?
La UE tiene su Reglamento de IA; América Latina discute marcos propios. Una estrategia inteligente pasaría por coordinar estándares y exigir, por ejemplo, condiciones específicas para modelos que procesen masivamente datos en español, desde cláusulas de privacidad hasta requisitos de transparencia algorítmica. La alternativa es aceptar sin más los términos fijados en San Francisco, Londres o Nueva Delhi.
7. Conclusión
La mano que Sam Altman y Dario Amodei no se dieron en Nueva Delhi resume el momento actual: la IA ha dejado de ser un experimento de laboratorio y se ha convertido en un pulso industrial y geopolítico en toda regla.
Si empresas, administraciones y reguladores de Europa y el mundo hispanohablante no intervienen activamente en cómo se configura esta competencia –desde los modelos de negocio hasta las reglas de juego–, otros lo harán por ellos. La cuestión no es si habrá una carrera por el poder en IA, sino qué papel queremos jugar en ella: ¿espectadores, clientes cautivos o co‑arquitectos del sistema?



