1. Titular e introducción
Un gráfico del último informe de Anthropic está circulando por redes: una franja azul que sugiere que los modelos de lenguaje podrían, en teoría, realizar hasta el 80 % de las tareas en muchos trabajos de oficina. A simple vista parece una cuenta atrás hacia despidos masivos. Pero ese área azul de "capacidad teórica" se apoya en conjeturas hechas en 2023, en pleno pico de euforia (y miedo) por la IA.
En este artículo analizamos cómo llegó Anthropic a esas cifras, qué medía realmente el estudio original de OpenAI y por qué empresas, gobiernos y profesionales deberían leer estos gráficos como escenarios, no como destinos inevitables. El peligro no es solo lo que la IA puede hacer, sino lo que hacemos nosotros cuando tomamos decisiones basadas en métricas frágiles.
2. La noticia en breve
Según explica Ars Technica, Anthropic ha publicado un informe sobre el impacto de la IA en el mercado laboral. El documento compara dos medidas para 22 grandes grupos de ocupaciones: la "exposición observada" actual a modelos de lenguaje y una estimación mucho mayor de "capacidad teórica".
En lugar de construir esa línea teórica con nuevos datos, Anthropic reutiliza una investigación de agosto de 2023 titulada "GPTs are GPTs", realizada por OpenAI, OpenResearch y la Universidad de Pensilvania. Ese trabajo partía de la base de datos estadounidense O*NET, que descompone los empleos en tareas muy específicas. Anotadores humanos –asistidos por GPT‑4– evaluaban si el mejor modelo de OpenAI en ese momento podía reducir al menos a la mitad el tiempo necesario para realizar cada tarea manteniendo la calidad, o si una futura "herramienta basada en LLM" podría hacerlo.
Los propios autores avisaban de la subjetividad y limitaciones de este enfoque. Anthropic usa ahora esas etiquetas como referencia y concluye que el uso real de IA está muy por debajo de lo que sería "factible" en teoría.
3. Por qué importa
El problema de fondo no es que Anthropic cite un estudio de 2023, sino lo que un gráfico así provoca en la conversación pública.
Al condensar una metodología llena de supuestos en una sola banda azul, el mensaje implícito es directo: "La IA podría hacer el 80 % de tu trabajo; solo falta implantarla". Para directivos que buscan recortar costes o políticos que quieren mostrarse duros ante la "revolución de la IA", es una cifra muy tentadora, aunque se base en:
- Tareas, no puestos de trabajo completos.
- Ahorros de tiempo, no sustitución total de personas.
- Opiniones de expertos de 2023, no en datos del futuro.
- Un horizonte temporal completamente abierto.
Eso marca la diferencia. Una tarea que podría hacerse un 50 % más rápido en teoría puede volverse más lenta en la práctica al sumar tiempo de redactar prompts, revisar resultados, pasar controles legales y técnicos, e integrar la herramienta en procesos existentes. Ars Technica recuerda una investigación de 2025 en la que desarrolladores de software con ayuda de IA terminaron siendo más lentos una vez contabilizado todo ese overhead.
¿Quién gana con gráficos así? Proveedores de IA y consultoras, que obtienen un argumento visual potente para vender proyectos de "transformación". Inversores, que refuerzan narrativas de crecimiento casi ilimitado. ¿Quién podría perder? Trabajadores a quienes se les dice que su rol es "80 % automatizable" según etiquetas discutibles, y gobiernos que podrían diseñar políticas de empleo y formación apoyándose en un mapa distorsionado del riesgo.
La consecuencia inmediata es clara: corremos el riesgo de organizar la próxima década de decisiones laborales alrededor de una ilusión estadística, mientras ignoramos los cambios más lentos y profundos en la organización del trabajo.
4. El cuadro más amplio
El gráfico de Anthropic encaja en varias tendencias del sector tecnológico.
Primero, forma parte del giro de medir qué hace un modelo en laboratorio a especular qué implicaría eso para la economía real. Hemos visto esfuerzos similares de consultoras globales, bancos centrales y organismos multilaterales, que intentan traducir benchmarks de modelos en puntos de PIB, incrementos de productividad o porcentajes de empleos expuestos. El apetito por esas cifras es enorme, pero el puente entre rendimiento técnico y economía es frágil.
Segundo, el estudio original se realizó en agosto de 2023, justo después del lanzamiento de GPT‑4 y en plena ola de hype. Como recuerda Ars Technica, era el momento de cartas abiertas pidiendo una pausa en el desarrollo, advertencias sobre riesgos existenciales y titulares sobre IA "fuera de control". Pedir en ese contexto a expertos en IA que imaginen lo que podrían hacer futuras herramientas basadas en LLM, sin fijar plazo, es capturar el ánimo –optimista y catastrofista– de aquel momento, no una predicción fría.
Tercero, hay un patrón histórico: desde la informatización de los 80 hasta los robots industriales y los primeros estudios de automatización masiva, las estimaciones de puestos "en riesgo" casi siempre superan con creces los cambios observados después. Algunos trabajos desaparecen (operadores de centralita, por ejemplo), pero la mayoría se reconfiguran, cambian de nombre, se desplazan a otros sectores o se combinan con nuevas tareas.
En este contexto competitivo, todos los grandes laboratorios de IA –OpenAI, Google, Anthropic, Meta– tienen incentivos para dibujar un alcance potencial enorme. Decir que tus modelos podrían afectar a la mitad de las tareas de la economía no es solo describir capacidad técnica; es construir un relato que atrae capital, talento y atención regulatoria.
5. La perspectiva europea e hispanohablante
Para Europa y el mundo hispanohablante, cómo medimos el impacto de la IA en el empleo es casi tan importante como el impacto real.
Los mercados laborales europeos están más regulados, el peso de los convenios colectivos es mayor y las redes de protección social son más densas que en Estados Unidos. Las decisiones sobre fondos de recualificación, cambios en la educación y regulaciones laborales ya están influidas por proyecciones de "disrupción" causada por la IA. La futura aplicación del Reglamento de IA de la UE, junto con GDPR y otras normas digitales, marcará el ritmo al que empresas europeas podrán usar LLMs en procesos relacionados con personas.
Sin embargo, la referencia que usa Anthropic se basa en O*NET y en la estructura ocupacional de EE. UU. Las economías de España, América Latina y el resto de Europa tienen combinaciones diferentes de sectores: más empleo público en algunos países, otro peso de la industria y la agricultura, una gran cantidad de pymes y enormes sectores informales en muchas economías latinoamericanas. Trasladar sin más métricas estadounidenses de "exposición" a la IA es una receta para equivocarse de objetivo.
También hay diferencias culturales. En Europa existe mayor sensibilidad hacia la privacidad y la transparencia; en América Latina, la preocupación por la precariedad y la informalidad. En un call center en Ciudad de México, un banco en Madrid o una startup en Barcelona, la introducción de IA generativa no se vive igual, aunque el gráfico de Anthropic los pinte con el mismo color.
La lección para ministros de trabajo, sindicatos y empresas de habla hispana es clara: no conviertan una franja azul de un estudio estadounidense en la brújula de sus políticas. Hace falta investigación propia, con taxonomías laborales europeas y latinoamericanas, y con datos de adopción reales, no solo potenciales.
6. Mirando hacia adelante
¿Qué podemos esperar en los próximos años trabajadores, directivos y responsables políticos?
Seguirán apareciendo gráficos como el de Anthropic. Cada gran actor –Big Tech, consultoras, bancos de inversión– publicará su índice de "tareas expuestas" a la IA, con definiciones y supuestos distintos. Las cifras competirán en titulares, no en rigor metodológico.
Las señales realmente útiles vendrán de otros sitios:
- Experimentos de campo en empresas que comparen grupos con y sin acceso a herramientas de IA y midan productividad, errores, satisfacción y salud mental.
- Datos longitudinales a nivel de empresa, que muestren cómo la adopción de IA se relaciona con empleo, salarios y cambios organizativos a lo largo de años.
- Estudios centrados en los trabajadores, que identifiquen en qué tareas la IA ayuda de verdad y dónde genera riesgos (sobrecarga cognitiva, vigilancia, pérdida de autonomía).
En un horizonte de 3 a 7 años es razonable pensar que los LLM estarán integrados en suites de oficina, atención al cliente, desarrollo de software y sistemas internos de conocimiento. El efecto probablemente se parecerá menos a "el 80 % de los abogados desaparecen" y más a "cambian los trabajos junior, aparece más trabajo de supervisión y diseño de procesos, ciertas tareas rutinarias se desplazan hacia sistemas de IA".
En España y América Latina habrá además retos específicos: la combinación de alta temporalidad, economía informal y debilidad institucional en algunos países puede facilitar que se use la narrativa de la IA como excusa para precarizar aún más, o para externalizar servicios a plataformas automatizadas sin debate social previo.
7. Conclusión
La curva de "capacidad teórica" de Anthropic no es una cuenta atrás hacia la automatización masiva, sino una fotografía estilizada de lo que un grupo de expertos imaginó en 2023 que los LLM podrían llegar a hacer. Tomarla como predicción firme es un error de categoría.
La IA va a transformar el trabajo, sí, pero sobre todo reconfigurando tareas y jerarquías, no borrando profesiones enteras de la noche a la mañana. El reto para Europa y el mundo hispanohablante es construir métricas mejores y más honestas para seguir esa transformación. Antes de aceptar que "el 80 %" de tu empleo está condenado porque lo dice un gráfico, pregúntate: ¿de quién son las suposiciones que llenan esa franja azul?



