1. Titular e introducción
OpenAI ha dejado por un momento de hablar de modelos y GPUs para hablar de impuestos, fondos públicos y semana laboral de cuatro días. Su nuevo documento de políticas dibuja una economía de la “era de la inteligencia” con impuestos a los robots, fondos de riqueza colectiva y grandes inversiones en infraestructura de IA.
Lo llamativo no es solo lo que propone, sino quién lo propone: una empresa privada estadounidense, convertida en referencia mundial y cada vez más influyente en Washington. En este análisis veremos hasta qué punto este “contrato social de la IA” es una propuesta honesta de redistribución o una jugada inteligente para marcar la agenda regulatoria antes que los gobiernos.
2. La noticia en breve
Según explica TechCrunch, OpenAI publicó un marco económico y político para afrontar el impacto de la inteligencia artificial avanzada. El texto plantea tres objetivos principales: repartir mejor la riqueza generada por la IA, reducir los riesgos sistémicos de los modelos más potentes y evitar que el acceso a estas tecnologías quede monopolizado por unas pocas empresas.
Para ello, OpenAI defiende trasladar parte de la carga fiscal del trabajo al capital: más impuestos sobre beneficios corporativos, ganancias de capital en la parte alta de la distribución y rentas específicamente asociadas a la IA. También recupera la idea de un “impuesto a los robots” sobre tareas automatizadas. Propone crear un Fondo de Riqueza Pública que dé a los ciudadanos una participación colectiva en empresas e infraestructuras de IA, distribuyendo sus rendimientos de forma directa. En el frente laboral, sugiere subsidiar una semana de cuatro días sin recorte salarial, ampliar beneficios pagados por las empresas y establecer cuentas portátiles de prestaciones. El paquete se completa con nuevas instituciones de supervisión y apoyo público al despliegue masivo de infraestructura de IA, tratada como un servicio básico.
3. Por qué importa
Cuando un actor del tamaño de OpenAI se pone a diseñar sistemas fiscales y de protección social, no está lanzando ideas al aire: está intentando definir el campo de juego antes de que lo hagan los reguladores. Si los gobiernos toman este marco como referencia, el reparto del poder económico en la era de la IA puede quedar condicionado durante décadas.
Los posibles ganadores son claros:
- Las grandes plataformas de IA, que obtendrían legitimidad política a cambio de aceptar cierta redistribución. Pueden presentarse como parte de la solución a la desigualdad que ellas mismas contribuyen a generar.
- Gobiernos con poco margen fiscal, que verían en la IA una nueva base imponible para financiar prestaciones sin tocar de forma traumática otros impuestos.
Pero hay perdedores potenciales que apenas aparecen en el documento:
- Trabajadores en situación precaria o economía informal, mayoría en buena parte de América Latina, para quienes la idea de “beneficios de empresa” o cuentas portátiles suena lejana. Si la protección depende del empleador, quien no está plenamente formalizado se queda fuera.
- Ecosistemas locales de IA en Europa y Latinoamérica, que podrían verse relegados si la narrativa de “IA como utilidad” termina consolidando a un puñado de gigantes estadounidenses como infraestructuras de facto.
El mensaje de fondo es claro: OpenAI está dispuesta a hablar de cómo repartir los frutos de la IA, siempre que nadie cuestione demasiado quién controla el árbol.
4. El panorama más amplio
El texto de OpenAI llega tras otros movimientos similares. Anthropic presentó hace meses su propio plan de gobernanza; la Unión Europea ha aprobado la Ley de IA; el Reino Unido organizó una cumbre global de seguridad; Estados Unidos creó un Instituto de Seguridad de la IA. Las grandes tecnológicas han entendido que, si no proponen su propio marco, los gobiernos lo harán por ellas.
Históricamente, esto recuerda al papel de los grandes grupos industriales en la formulación de leyes de competencia y derechos laborales en los siglos XIX y XX. Cedieron parte del terreno —jornadas máximas, seguridad laboral, reglas antimonopolio—, pero lograron preservar sus estructuras básicas de poder. La referencia de OpenAI a una “nueva política industrial” inspirada en el New Deal encaja perfectamente en este patrón.
La idea de un fondo público financiado por un sector concreto tampoco es nueva. Ahí están el fondo petrolero de Noruega o el fondo permanente de Alaska. La diferencia es que la “materia prima” ahora no es petróleo, sino datos, modelos y capacidad de cómputo. ¿Deben tratarse como recursos estratégicos sujetos a captura política, o como servicios digitales en competencia?
Frente a otros competidores, OpenAI apuesta por el discurso más redistributivo. Google y Meta insisten en apertura e innovación, Microsoft en productividad empresarial, Anthropic en seguridad. OpenAI se posiciona como el actor que no solo construye la infraestructura, sino también la justificación moral y política de su propia escala. Es marketing político, pero también una forma de intentar desactivar regulaciones más duras antes de que se materialicen.
5. La perspectiva europea e hispanohablante
Desde Europa, muchas propuestas de OpenAI suenan familiares. Progresividad fiscal, Estado del bienestar, debates sobre jornada de 32 horas… España ya ha experimentado con pilotos de semana laboral reducida; Francia y los países nórdicos discuten desde hace años cómo vincular productividad y tiempo libre.
La diferencia clave es quién diseña las reglas. En la UE, el eje regulatorio —RGPD, Ley de Servicios Digitales, Ley de Mercados Digitales, futura Ley de IA— está pensado para limitar la concentración de poder en plataformas privadas, no para convertirlas en pilares de la protección social. Si la IA se considera una “utilidad”, Bruselas pedirá acceso no discriminatorio, interoperabilidad y supervisión fuerte. Eso choca con una visión donde pocas empresas privadas son dueñas de los modelos, los datos y los centros de datos.
Para España y América Latina, el enfoque de OpenAI deja vacíos importantes. Gran parte de la población trabaja en sectores informales o semi-formales, sin beneficios de empresa que se puedan “portabilizar”. Hacer depender la seguridad económica de ese tipo de esquemas corre el riesgo de ampliar la brecha entre insiders protegidos y outsiders sin red.
La oportunidad está en otro lado: usar el lenguaje de “infraestructura de IA” para justificar inversiones públicas en cómputo, modelos abiertos y datos compartidos a nivel europeo e iberoamericano. Proyectos como los superordenadores europeos, iniciativas de datos abiertos en salud o clima, o alianzas académicas UE–LatAm podrían ser la base de un “fondo de soberanía de IA” que no dependa de las acciones de empresas estadounidenses.
6. Mirando hacia adelante
En los próximos años veremos menos grandes manifiestos y más política concreta. Algunas señales a vigilar:
- Propuestas de impuestos específicos sobre rentas vinculadas a automatización o superbeneficios de IA.
- Fondos nacionales o regionales para financiar infraestructura y talento en IA, inspirados —explícitamente o no— en la idea del Fondo de Riqueza Pública.
- Negociaciones colectivas que incluyan cláusulas de protección frente a automatización, formación financiada por la empresa y, en algunos casos, reducción de jornada.
El grado en que la visión de OpenAI se haga realidad dependerá de tres factores:
- Resultados económicos reales. Si la IA genera grandes beneficios concentrados, la presión por mecanismos de reparto crecerá. Si el impacto es más modesto, muchos gobiernos se resistirán a crear derechos permanentes ligados a una tecnología aún volátil.
- Reacción social. Despidos masivos y desigualdad visible pueden acelerar medidas como impuestos a robots o fondos soberanos. Sin ese shock, es más fácil que las propuestas se queden en retórica.
- Coherencia empresarial. La prueba de fuego para OpenAI será su postura cuando aparezcan leyes concretas: ¿defenderá en público subidas de impuestos o fondos de riqueza, o se alineará con el resto del lobby tecnológico para frenarlas?
Para los países hispanohablantes, la gran tarea pendiente es formular su propia agenda de IA: qué tipo de empleo quieren proteger o crear, qué papel debe jugar el Estado, y qué parte de la infraestructura tecnológica quieren controlar dentro de sus fronteras o en alianzas regionales.
7. Conclusión
El manifiesto económico de OpenAI acierta en el diagnóstico —la IA puede desbordar los sistemas fiscales y laborales actuales—, pero ofrece una cura que mantiene a las grandes plataformas en el centro del tablero. Presenta redistribución, sí, pero gestionada desde quienes controlan la tecnología. La cuestión clave para Europa y el mundo hispanohablante es si aceptan ese marco como punto de partida o se atreven a plantear modelos en los que el interés público no dependa del beneplácito de unas pocas empresas. ¿Quién debe escribir realmente el contrato social de la era de la inteligencia?



