1. Titular e introducción
La IA en 2026 ya no es solo un chatbot simpático en el móvil. Está chocando con tres realidades incómodas: la lógica de la guerra, la automatización casi ciega de nuestra vida digital y los límites físicos de chips, energía y agua.
En su repaso de las mayores historias de IA del año, TechCrunch destaca tres ejes: el enfrentamiento público entre Anthropic y el Pentágono, el boom caótico de las apps de IA “agéntica” como OpenClaw y Moltbook, y una carrera por centros de datos y hardware que empieza a notarse en el bolsillo y en el territorio. Este artículo analiza qué significan estos movimientos para el reparto de poder, el modelo económico de la IA y las oportunidades –y riesgos– para el mundo hispanohablante.
2. La noticia en breve
Según TechCrunch, los primeros meses de 2026 han cristalizado tres grandes historias alrededor de la IA.
Anthropic vs. el Pentágono. Anthropic se negó a firmar nuevos contratos con el Departamento de Defensa de EE. UU. –rebautizado por la administración Trump como “Departamento de Guerra”– que permitirían usar sus modelos para vigilancia masiva de ciudadanos estadounidenses y para armas totalmente autónomas. El Pentágono exigía acceso a los modelos para cualquier uso militar legal. Anthropic mantuvo sus límites; como respuesta, el gobierno ordenó a las agencias federales dejar de usar sus herramientas en un plazo de seis meses y catalogó a la empresa como “riesgo de cadena de suministro”, etiqueta reservada habitualmente a adversarios extranjeros. OpenAI aprovechó el hueco y anunció un acuerdo para que sus modelos se empleen en contextos clasificados.
Oleada OpenClaw / Moltbook. OpenClaw, una app de asistente “vibe‑coded” que conecta modelos como Claude, ChatGPT, Gemini o Grok con apps de mensajería y datos personales, se hizo viral, generó clones, expuso fallos de privacidad y terminó en un acquihire por parte de OpenAI. Moltbook, un clon de Reddit para agentes de IA construido sobre OpenClaw, se volvió aún más viral por posts alarmistas sobre agentes creando un “lenguaje secreto” entre ellos; finalmente fue adquirido por Meta.
Crisis de chips y centros de datos. TechCrunch señala que la demanda de cómputo para IA está llevando al límite el suministro de chips de memoria y la capacidad de centros de datos. Analistas prevén que los envíos de smartphones caerán alrededor de un 12–13 % este año; Apple ya ha subido el precio de algunos MacBook Pro hasta 400 dólares. Google, Amazon, Meta y Microsoft planean invertir hasta 650.000 millones de dólares en centros de datos en 2026, un 60 % más que el año anterior. En EE. UU. se construyen casi 3.000 nuevos centros, con impactos ambientales y sanitarios a nivel local. Nvidia, por su parte, está dejando de invertir en OpenAI y Anthropic tras años de acuerdos circulares en los que la inversión en acciones se ligaba a compras masivas de chips.
3. Por qué importa
Estas tres historias son, en realidad, síntomas de un mismo momento: la adolescencia incómoda de la IA, cuando el discurso de “tecnología neutra” se enfrenta a las decisiones sobre poder, riesgo y recursos.
En el caso Anthropic–Pentágono, el choque es frontal: ¿quién decide hasta dónde llega la IA militar, el Estado o los proveedores de modelos? Anthropic afirma, de facto, que un laboratorio puede negarse a ciertos usos aunque sean legales. Es un cambio de rol respecto al complejo militar‑industrial clásico, donde empresas como Lockheed o Raytheon construyen lo que el gobierno pide, no lo que consideran éticamente aceptable.
OpenAI ha optado por lo contrario: entrar en el espacio militar con promesas de “líneas rojas” propias. El premio potencial en contratos y acceso al poder es enorme, pero también el coste reputacional. TechCrunch cita un aumento del 295 % en desinstalaciones de ChatGPT tras anunciarse el acuerdo y una subida fulgurante de la app Claude en las tiendas. Más allá del ruido, el mensaje es claro: una parte del público y de los desarrolladores empieza a votar con sus descargas a favor de proveedores percibidos como más alineados con ciertos valores.
La saga OpenClaw/Moltbook revela otra tensión: queremos automatización total antes de tener cultura de seguridad. Un agente que lee tu correo, tiene tu tarjeta y opera en tu ordenador no es “un chat más”, es un asistente con poder operativo real. Los ataques por inyección de prompts –por ejemplo, un correo malicioso que “ordena” al agente ejecutar una acción– convierten al asistente en caballo de Troya perfecto. El caso de la investigadora de Meta que tuvo que desenchufar físicamente su máquina para que el agente dejara de borrar emails es una metáfora muy gráfica de nuestra falta de mecanismos de parada.
La crisis de chips y centros de datos pone números a algo que en 2023–24 se intuía: la IA generativa no es magia en la nube, es acero, silicio y megavatios. Si los hyperscalers gastan cientos de miles de millones en infraestructuras, recuperarán esa inversión vía precios de nube, suscripciones “Pro” y, en muchos casos, subida silenciosa de tarifas en servicios existentes. Al mismo tiempo, miles de barrios y municipios tendrán que lidiar con consumo de agua, calor residual y contaminación asociados a estas macro‑instalaciones.
Ganadores claros: Nvidia y compañía, los grandes clouds y los laboratorios con contratos públicos. Perdedores: startups y pymes que no pueden pagar GPUs ni equipos legales, y usuarios finales que pagan más dinero y ceden más datos a cambio de funciones “inteligentes” que quizás no necesitaban.
4. El panorama general
Visto con perspectiva, estas historias encajan en tendencias que se venían gestando desde hace años.
En IA militar, llevamos más de una década con debates en la ONU sobre armas autónomas letales y en la OTAN sobre “decision support systems” para mandos. Lo nuevo es que los modelos más potentes no están en manos de contratistas militares tradicionales, sino de startups convertidas en gigantes de consumo. Eso da a empresas como Anthropic u OpenAI un poder de veto de facto que ningún gobierno va a aceptar sin resistencia. Podemos esperar movimientos para clasificar ciertos modelos como activos estratégicos sujetos a control de exportación, certificaciones de seguridad e incluso requisitos específicos para usos defensivos.
En IA agéntica, la trayectoria es clara: de herramientas como AutoGPT o los primeros copilots pasamos a asistentes cada vez más integrados en sistemas operativos (Windows, Android, iOS), ofimática y mensajería. El éxito viral de OpenClaw indica que el usuario medio no quiere abrir otra web, quiere decir “haz esto” en WhatsApp o Slack y olvidarse. Eso empuja a las grandes plataformas a capturar el concepto de “agente” y empaquetarlo como parte del sistema: cómodo, pero peligrosamente concentrado.
La historia tecnológica sugiere lo que viene: después del caos creativo de plugins e integraciones llega el cierre. Navegadores, móviles y ahora la nube han seguido ese patrón: primero libertad total, luego tienda oficial, certificados, comisiones y veto a lo que no encaja. Con los agentes veremos probablemente lo mismo: los sistemas operativos impondrán modelos de permisos estrictos y requisitos de seguridad… a cambio de controlar el canal.
En hardware y centros de datos, lo que vemos recuerda a la burbuja de fibra óptica de finales de los 90 o al furor del minado de criptomonedas: inversiones brutales justificadas por una demanda futura que puede o no materializarse. La particularidad aquí es que la demanda de IA sí existe hoy, pero es muy desigual y depende mucho de que los modelos encuentren casos de uso sostenibles. Los acuerdos circulares entre Nvidia y las grandes labs –“yo te invierto, tú me garantizas compras masivas”– hinchan valoraciones y crean dependencia mutua. El giro de Nvidia alejándose de estas participaciones puede ser una forma de rebajar el foco de reguladores y preparar el terreno para un mercado más diversificado o incluso más regulado.
En conjunto, todo apunta a una concentración vertical: chips → nube → modelos → aplicaciones, cada vez más en manos de los mismos grupos. Eso condiciona quién puede innovar, quién marca la agenda regulatoria y qué valores incorpora “por defecto” la IA que usamos todos.
5. El ángulo europeo e hispanohablante
Para Europa –y para los mercados hispanohablantes en general–, estas tendencias cruzan con realidades muy distintas a las de Silicon Valley.
En Europa, el Reglamento de IA de la UE (AI Act), el RGPD, la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA) crean un marco mucho más rígido. Aunque la defensa queda en buena parte fuera del AI Act, la opinión pública y el Parlamento Europeo son claramente más reacios a la automatización bélica y la vigilancia masiva. La posición de Anthropic encajaría bien en el discurso europeo dominante; no sería raro ver a instituciones comunitarias apoyando –explícita o implícitamente– a proveedores que asumen límites similares.
La IA agéntica choca de frente con el RGPD. Un OpenClaw “a la europea” tendría que justificarse en términos de minimización de datos, transparencia y control granular por parte del usuario. Aquí hay una oportunidad evidente para startups en España o América Latina: construir plataformas de agentes con foco en compliance, auditoría, despliegue local (on‑premise o en nubes regionales) y respeto estricto a la privacidad.
En cuanto a infraestructura, la UE ya vive tensiones por el crecimiento de centros de datos en Países Bajos, Irlanda o Alemania. La combinación de objetivos climáticos, precios altos de la energía y rechazo vecinal hace muy difícil replicar el modelo estadounidense de “3.000 nuevos centros a toda costa”. Eso puede frenar el despliegue de grandes modelos, pero también impulsar enfoques más eficientes: modelos pequeños especializados, inferencia en el edge y supercomputación compartida (EuroHPC).
Para el mundo hispanohablante, especialmente en América Latina, hay otra capa: muchos países son exportadores de energía y minerales clave para la transición digital, pero importadores de tecnología. La carrera por GPUs y centros de datos puede reforzar esta asimetría si la región se limita a albergar infraestructuras sin desarrollar propiedad intelectual propia. A la vez, el talento en IA en ciudades como Ciudad de México, Buenos Aires, Bogotá o Barcelona crece rápido; la batalla será retenerlo con proyectos relevantes y financiación local.
6. Mirando hacia adelante
¿Qué podemos esperar en los próximos 12–24 meses?
Reglas explícitas para IA militar. Veremos más empresas publicando políticas detalladas sobre usos aceptables en defensa y seguridad. Gobiernos –incluidos los europeos y latinoamericanos– tendrán que decidir si aceptan las condiciones de proveedores privados o apuestan por modelos soberanos desarrollados o controlados por el Estado.
Los agentes se integran en el sistema operativo. Microsoft, Apple, Google y Meta tienen incentivos enormes para hacer que “tu agente” viva dentro de Windows, iOS, Android, Instagram, etc. Eso reforzará su posición de guardianes de acceso al usuario final y hará más difícil que proyectos independientes como OpenClaw prosperen a gran escala.
Incidentes de seguridad como punto de inflexión. Es casi inevitable que veamos uno o varios casos sonados de pérdidas económicas o filtraciones graves causadas por agentes mal configurados o atacados. Esos episodios acelerarán la llegada de normas sectoriales, requisitos de auditoría y, posiblemente, obligaciones de seguro para soluciones de IA que tomen acciones autónomas.
IA menos gratuita, más estratificada. La combinación de escasez de chips, presión ambiental y costes de capital hará que el modelo de “IA ilimitada incluida en todo” sea difícil de sostener. Veremos más ofertas freemium con límites estrictos, más énfasis en modelos locales y ligeros y un cuestionamiento sano de funcionalidades de IA que aportan poco valor real.
Brecha regulatoria como ventaja competitiva. La divergencia entre el enfoque estadounidense (más geopolítico e industrial) y el europeo (más garantista) puede convertirse en ventaja para empresas que se posicionen claramente. Un proveedor español o latinoamericano que ofrezca agentes auditables, respetuosos con la privacidad y alojados en la región puede competir en confianza aunque no tenga el modelo más grande del mercado.
Para lectores en España y América Latina, la lección es directa: la ventana para construir infraestructura y productos propios aún está abierta, pero no lo estará siempre. Si dejamos que toda la capa de agentes, hardware y modelos se concentre en manos de un puñado de empresas en EE. UU. y China, la conversación sobre límites éticos y usos aceptables se decidirá muy lejos de nuestras sociedades.
7. Conclusión
Las mayores historias de IA de 2026 no van de modelos un poco más listos, sino de poder: quién decide cómo se usa la IA en guerra, quién controla los agentes que tocan nuestros datos y quién se beneficia –o sufre– del despliegue masivo de centros de datos y chips.
La pregunta incómoda es sencilla: ¿en qué manos queremos poner la combinación de capacidad militar, automatización de nuestra vida digital y control de la infraestructura física que hace posible todo esto? Responderla, con acción y no solo con discursos, será una de las tareas políticas y empresariales clave de esta década.



