El experimento de Anthropic adelanta el capitalismo de agentes: cuando tu IA negocia mejor que tú

25 de abril de 2026
5 min de lectura
Ilustración de dos agentes de IA negociando precios en un mercado digital

El experimento de Anthropic adelanta el capitalismo de agentes: cuando tu IA negocia mejor que tú

Anthropic acaba de hacer algo que parece casi un juego interno: 69 empleados, 100 dólares en vales y un mercadillo corporativo. Pero detrás de este experimento –Project Deal– hay un mensaje mucho más serio: qué pasa cuando dejamos que agentes de IA negocien entre ellos por dinero real, en nuestro nombre.

En este análisis veremos qué probó exactamente Anthropic, por qué la "calidad del agente" puede convertirse en una nueva brecha digital, cómo encaja esto en la ola de agentes autónomos y qué implicaciones tiene para Europa, España y los mercados latinoamericanos.


La noticia en breve

Según informa TechCrunch, Anthropic creó un experimento interno llamado Project Deal, un mercado de anuncios clasificados donde agentes de IA representaban tanto a compradores como a vendedores. Detrás de cada agente había un empleado real de Anthropic. Cada uno de los 69 participantes recibió un presupuesto de 100 dólares en tarjetas regalo para comprar productos reales a sus compañeros.

La empresa montó cuatro versiones del mercado. En la versión "real", todos los usuarios estaban representados por el modelo más avanzado de Anthropic y los acuerdos se ejecutaron de verdad al finalizar el experimento. Las otras tres variaban en el modelo y en las condiciones para fines de investigación.

El resultado: los agentes cerraron 186 operaciones por un valor superior a 4.000 dólares. Anthropic asegura que los usuarios representados por modelos más potentes obtuvieron resultados objetivamente mejores, pero la mayoría no percibió esa diferencia. Además, las instrucciones iniciales dadas a los agentes –por ejemplo, ser más agresivos o flexibles– apenas influyeron en la probabilidad de venta o en el precio final.


Por qué importa

Project Deal no es otro chatbot simpático, sino una microeconomía de agentes que toman decisiones sobre precio, valor y estrategia. Es un anticipo de algo mucho más grande: usuarios delegando poder económico a sistemas automáticos.

La primera lección es clara: un mejor modelo consigue mejores acuerdos. Si esto se traslada al comercio electrónico masivo, veremos un escenario en el que quienes pagan por agentes más avanzados lograrán sistemáticamente mejores precios, condiciones y recomendaciones que quienes usan versiones gratuitas o de baja gama. Es una nueva forma de desigualdad digital: no solo entre conectados y desconectados, sino entre quienes tienen un "abogado algorítmico" fuerte y quienes dependen de un agente mediocre.

Lo más inquietante es que Anthropic observa que los usuarios casi no se dan cuenta cuando salen perdiendo. Si tu agente acepta un precio, suena razonable. Solo que, estadísticamente, otra persona con un agente más competente consigue más por menos. El daño es difuso, acumulativo y difícil de detectar, justo lo contrario de los abusos clásicos que disparan quejas públicas.

Los vendedores y las plataformas también entran en el juego. Si los agentes de compra exprimen márgenes, llegará la respuesta: agentes del lado vendedor y sistemas de precios dinámicos cada vez más sofisticados. Lo que hoy vemos en la publicidad programática o en el trading algorítmico se trasladará a la compra del billete de avión, el seguro del coche o el contrato de móvil.

Otro punto clave: que las instrucciones iniciales casi no alteren el resultado sugiere que el diseño y entrenamiento del modelo pesan más que el prompt cuando hay dinero real en juego. Eso concentra poder en manos de unos pocos proveedores de modelos fundacionales y reduce la ilusión de que cualquiera, con buenas indicaciones, puede competir en igualdad de condiciones.


El cuadro general

El experimento de Anthropic encaja perfectamente en la tendencia más clara de la IA actual: el paso del chatbot al agente.

  • OpenAI, Google o Microsoft trabajan en agentes que reservan viajes, operan aplicaciones, gestionan correos o interactúan con APIs.
  • Decenas de startups prometen "empleados de IA" para ventas, soporte, logística o compras.
  • En publicidad online y mercados financieros ya vivimos en un mundo donde algoritmos negocian con algoritmos a gran escala.

Project Deal es la versión para consumidores de ese mismo patrón. Lo interesante es que aquí hablamos de transacciones domésticas y cotidianas, no de trading de alta frecuencia entre bancos de inversión.

Cada vez que se ha automatizado la fijación de precios o la negociación –piénsese en tarifas dinámicas de aerolíneas, Uber o Amazon– han surgido debates sobre colusión algorítmica, discriminación de precios y opacidad. Reguladores en la UE y en EE. UU. ya han investigado casos en los que algoritmos de precios parecían aprender comportamientos cercanos al cartel sin un acuerdo explícito.

La novedad es que ahora no se automatiza solo el precio, sino todo el ciclo de decisión: descubrimiento de ofertas, comparación, negociación, pago e incluso reclamaciones. Ahí se difumina la frontera entre reglas de la plataforma y conducta del agente. ¿Pagaste de más porque el marketplace es injusto o porque tu agente es flojo? ¿Te discrimina el vendedor o su agente ha aprendido sesgos a partir de datos históricos?

Frente a la retórica habitual de Silicon Valley de "IA para todos", el hecho de que Anthropic hable abiertamente de brechas de calidad entre agentes es significativo. Reconoce, aunque sea de forma implícita, que si no se interviene, los agentes pueden ampliar las brechas de renta, información y poder de negociación, tanto entre países como dentro de cada sociedad.


La perspectiva europea e iberoamericana

Para Europa, Project Deal es casi un caso práctico para el Reglamento de IA de la UE (AI Act) y para normas ya vigentes como el GDPR, la Directiva de prácticas comerciales desleales o la DSA.

Desde el derecho del consumidor, surge una cuestión incómoda: si una plataforma sabe que ciertos usuarios, por usar agentes más débiles, obtienen sistemáticamente peores condiciones, ¿puede mirar hacia otro lado? En la UE se prohíbe aprovecharse de asimetrías de información de forma desleal. No es descabellado imaginar a asociaciones de consumidores en España, Francia o Alemania litigando en este frente.

En clave de protección de datos, los agentes de compra necesitarán un acceso profundo a historiales de consumo, preferencias, datos financieros y contexto. En Europa eso dispara todas las alarmas de perfilado y reutilización de datos. Habrá presión para garantizar transparencia, posibilidad real de oposición y límites estrictos al intercambio de datos entre agentes de comprador y vendedor.

La Dimensión de competencia y mercados digitales (DMA) también es clave. Si solo unas pocas grandes tecnológicas ofrecen los agentes más avanzados, podrían condicionar indirectamente mercados enteros –desde la energía en España hasta seguros en México o Brasil– favoreciendo a quienes están en su ecosistema. Bruselas ya ha mostrado que no dudará en intervenir cuando ve a un nuevo "gatekeeper".

Para Europa y América Latina también hay oportunidad: construir agentes centrados en el usuario, con controles claros y objetivos que vayan más allá del precio (por ejemplo, sostenibilidad, comercio local o inclusión financiera). En ecosistemas como Madrid, Barcelona, Ciudad de México, São Paulo o Buenos Aires no faltan startups que podrían explorar este enfoque.


Mirando hacia adelante

El escenario más verosímil es que el comercio mediado por agentes entre en nuestro día a día de forma progresiva y casi silenciosa. Primero como asistentes que encuentran cupones o recomiendan el mejor momento para comprar; después, como agentes a los que delegamos totalmente la tarea de renovar el seguro del coche, cambiar de operador o rellenar la nevera.

Conviene observar varios hitos:

  • Integración en grandes plataformas: el día que Amazon, Mercado Libre, Alibaba o grandes retailers europeos anuncien APIs para agentes, el modelo de Project Deal saldrá oficialmente al mercado.
  • Acceso directo a pagos: cuando los agentes puedan mover dinero vía tarjetas, banca abierta o wallets sin intervención humana, el riesgo regulatorio y sistémico se dispara.
  • Batalla por estándares: quién define los protocolos de negociación entre agentes, los formatos de registro y las reglas de transparencia marcará el equilibrio de poder en esta nueva capa de la economía digital.

Quedan, sobre todo, preguntas de gobernanza. ¿Quién responde si tu agente firma un contrato ruinoso o ignora una cláusula importante? ¿Deberán las plataformas informar del "nivel" de tu agente frente a otros en la misma transacción? ¿Tendremos en Europa que plantearnos una especie de "agente público básico", como hoy existen servicios universales de telecomunicaciones?

Y hay un riesgo menos teórico: que las plataformas descubran que mantener cierta desigualdad entre agentes es rentable. Agentes premium para empresas y usuarios de alto poder adquisitivo; agentes estándar para el resto, que sin saberlo pagan parte de la fiesta. Sin normas claras y presión social, este resultado es perfectamente plausible.


En resumen

Project Deal no es un simple experimento interno simpático, sino un avance de cómo podría funcionar un capitalismo mediado por agentes. Demuestra que los modelos más potentes negocian mejores acuerdos y que la mayoría de las personas ni siquiera nota cuándo está sistemáticamente en desventaja. Si permitimos que esta dinámica escale sin controles, corremos el riesgo de consolidar una nueva clase invisible en la economía digital. La pregunta de fondo es directa: ¿quién tendrá al mejor negociador de IA sentado a su lado, y bajo qué reglas de juego?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.