La IA entra en campaña: por qué la apuesta política de Anthropic marca un antes y un después
Los grandes laboratorios de IA ya no solo influyen en la política con papers y lobbies en Washington. Ahora financian super PACs enfrentados entre sí en unas mismas elecciones. Eso cambia las reglas del juego.
Según cuenta TechCrunch, Anthropic ha decidido poner millones detrás de un comité político que, en una primaria del Congreso en Nueva York, se enfrenta directamente a otro super PAC de la industria pro‑IA. Detrás de este choque de chequeras hay algo mucho más profundo: la batalla por decidir si ser “pro‑IA” significa desregular a toda costa o construir un ecosistema con estándares de seguridad y supervisión pública.
Y aunque todo esto ocurra en Estados Unidos, el impacto llegará a Europa y al mundo hispanohablante, desde Madrid hasta Ciudad de México y Buenos Aires.
La noticia en breve
Tal y como explica TechCrunch, el asambleísta neoyorquino Alex Bores, candidato al Congreso por el distrito 12 de Nueva York, se ha convertido en objetivo de un super PAC abiertamente pro‑IA.
El comité Leading the Future – descrito por TechCrunch como pro‑IA y dotado con más de 100 millones de dólares, aportados entre otros por Andreessen Horowitz, el presidente de OpenAI Greg Brockman, la startup de búsqueda Perplexity y el cofundador de Palantir Joe Lonsdale – ha invertido alrededor de 1,1 millones de dólares en anuncios contra Bores. La razón de fondo: Bores impulsó la ley estatal RAISE Act, que obliga a los grandes desarrolladores de IA a detallar sus protocolos de seguridad y a informar de usos graves indebidos de sus sistemas.
En respuesta, entra en escena un rival. Public First Action, un PAC que, según Bloomberg (citado por TechCrunch), ha recibido una donación de 20 millones de dólares de Anthropic, está gastando 450.000 dólares para apoyar a Bores. También se declara pro‑IA, pero defiende un modelo basado en transparencia, estándares de seguridad y supervisión pública.
Por qué importa
Esta contienda no va solo de quién ocupará un escaño por Nueva York, sino de quién se apropia del relato de lo que significa estar “a favor de la IA”.
Leading the Future representa la visión tecno‑maximalista clásica de Silicon Valley: la IA como motor de crecimiento económico y poder geopolítico, con la regulación reducida al mínimo imprescindible. Bores no es atacado por ser antitecnología, sino por haber impulsado una ley – la RAISE Act – que establece obligaciones de transparencia y reporte en materia de seguridad. Para ese bloque, dejar que un legislador abra la caja negra de los modelos es un precedente peligroso.
Anthropic, en cambio, quiere demostrar que se puede ser pro‑IA desde otra posición: innovación sí, pero con reglas claras de seguridad, divulgación y control democrático. La empresa lleva tiempo presentándose como el laboratorio que se toma en serio los riesgos existenciales. Al poner 20 millones en un PAC que defiende a un candidato partidario de regular, envía un mensaje: ya no basta con influir discretamente en el texto de las leyes; también están dispuestos a disputar quién llega al poder.
Ganadores potenciales:
- Los laboratorios de frontera con discurso de seguridad ganan influencia política y autoridad moral.
- Los inversores hiper‑crecimiento cuentan con un instrumento para premiar o castigar a los políticos según su alineamiento regulatorio.
Perdedores:
- Las startups pequeñas y medianas de IA, tanto en Europa como en América Latina, que no tienen capacidad para jugar a este nivel y pueden acabar sujetas a unas reglas diseñadas por y para gigantes.
- Las instituciones públicas, obligadas a negociar marcos regulatorios bajo la presión de campañas multimillonarias.
La consecuencia inmediata es clara: cualquier legislador que esté pensando en regular IA, en Washington, Bruselas o Madrid, analizará esta carrera como un caso de estudio sobre los costes políticos de meterse con los grandes modelos.
El contexto más amplio
La película se parece a otras que ya hemos visto, pero con un giro.
Uber y Lyft peleando contra ayuntamientos, las telecos contra la neutralidad de red, las empresas cripto volcadas en super PACs como Fairshake… Siempre el mismo patrón: industrias emergentes intentando fijar las reglas a su favor antes de que la sociedad reaccione.
En IA, el salto cualitativo está en la concentración de poder y en el tipo de riesgo. Anthropic, OpenAI, Google, Meta y unos pocos más no solo ofrecen un producto; controlan infraestructuras cognitivas que afectan a la información, el trabajo, la educación y la seguridad. Que esos mismos actores aprendan ahora a manejar campañas políticas a base de millones añade una capa peligrosa a la relación entre tecnología y democracia.
Este choque encaja con varias tendencias clave:
- La fase de “sin reglas” se acaba. EE. UU. tiene una orden ejecutiva sobre IA, Reino Unido organizó la AI Safety Summit y la UE ya acordó el AI Act. La pregunta no es si habrá regulación, sino quién la escribirá.
- La industria se fragmenta ideológicamente. Un bloque se alinea con el discurso de seguridad, auditorías y riesgos de largo plazo; otro, con el optimismo radical, teme que cualquier freno regulatorio haga perder la carrera tecnológica frente a China u otros.
- El lobby se hace más agresivo y visible. No se trata solo de influir en borradores de ley; se trata de evitar que lleguen al poder perfiles que puedan poner límites serios.
El sistema estadounidense, con super PACs capaces de recibir y gastar sumas ilimitadas, es terreno fértil para este experimento. En Europa y en muchos países latinoamericanos, donde la financiación de campañas está más regulada, el juego se parecerá menos a Nueva York y más a Bruselas o a Ciudad de México: menos anuncios televisivos, más think tanks, asociaciones sectoriales y despachos de lobby.
La lección de fondo: no habrá un único “lobby de la IA”, sino bloques enfrentados dentro del propio sector, cada uno intentando imponer su visión sobre cómo debe funcionar el ecosistema.
La perspectiva europea e hispanohablante
Visto desde Europa o América Latina, este caso tiene una doble lectura.
Primero, es una señal de alarma. Los laboratorios implicados – Anthropic, actores vinculados a OpenAI, el entorno de Palantir – desarrollan modelos que ya se usan en empresas y administraciones europeas e iberoamericanas. Si la política estadounidense se vuelve rehén de super PACs de IA reacios a cualquier límite, el estándar global de seguridad y transparencia tenderá a ser más laxo.
La UE ha optado por otro camino con el AI Act, la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA), que imponen obligaciones duras a plataformas sistémicas y sistemas de alto riesgo. Además, la financiación política empresarial está mucho más acotada que en EE. UU., lo que dificulta que veamos aquí un “super‑PAC de IA” a la americana.
En el mundo hispanohablante hay realidades mixtas. España se mueve bajo el paraguas europeo, mientras que muchos países latinoamericanos combinan alta influencia empresarial, regulación desigual y, en algunos casos, instituciones electorales fuertes. Es fácil imaginar a grandes proveedores de IA intentando replicar en Ciudad de México, Bogotá o Santiago la estrategia de influir en quién legisla y cómo.
La oportunidad está en que esta fractura dentro de la propia industria da margen de maniobra a los reguladores. Pueden señalar el caso Anthropic para demostrar que hay actores relevantes dispuestos a convivir con reglas exigentes. Eso debilita el argumentario de quienes, en Europa o América Latina, defienden que cualquier regulación fuerte de la IA espantará a todos los jugadores serios.
Para startups y universidades de habla hispana, la clave será construir una posición propia en el debate regulatorio – en Bruselas, Madrid, Ciudad de México, Bogotá – que no sea mera copia ni del ala “seguridad ante todo” ni del ala “crecimiento sin frenos” de Silicon Valley.
Mirando hacia adelante
La primaria de Nueva York no será el último capítulo del desembarco de la IA en la política, solo el primer test público.
Si Leading the Future logra frenar a Bores, muchos políticos leerán el resultado como una advertencia: impulsar leyes exigentes sobre IA puede tener un coste electoral elevado. Si, por el contrario, el candidato apoyado por Anthropic sale reforzado, veremos más campañas construidas sobre el mensaje de “innovación sí, pero con reglas”, patrocinadas por laboratorios que quieren demostrar que la regulación no es incompatible con el negocio.
En los próximos 12–24 meses merece la pena seguir de cerca:
- La escala: ¿se queda el fenómeno restringido a unas pocas carreras simbólicas o vemos una avalancha de dinero de IA en 2028?
- La transparencia: ¿mejorarán las obligaciones de información sobre quién financia qué, especialmente cuando hay IA generativa detrás de los anuncios políticos?
- La reacción social: ¿surgirán candidatos o movimientos que hagan bandera de “sin dinero de la IA”, como ya ocurre con el rechazo a otros PACs en EE. UU.?
- El efecto en otras regiones: ¿veremos estrategias similares – adaptadas a cada sistema – en Reino Unido, Canadá o grandes democracias latinoamericanas?
El mayor peligro es la captura regulatoria: que el pequeño grupo de empresas que desarrolla los modelos más potentes acabe, de facto, redactando las reglas para sí mismas, combinando influencia académica, lobby y ahora chequeras electorales. El peligro contrario sería una reacción política anti‑IA tan fuerte que bloquee también los usos positivos de la tecnología.
En resumen
La decisión de Anthropic de financiar con 20 millones de dólares un PAC que respalda a un candidato amigo de la regulación frente a un super PAC de la propia industria marca una nueva fase: las empresas de IA dejan de ser meros sujetos pasivos de la regulación para convertirse en centros de poder político que compiten entre sí.
Que existan varias visiones enfrentadas de lo que significa estar “a favor de la IA” es mejor que un bloque único y monolítico. Pero no nos engañemos: el futuro de la gobernanza de la IA se está negociando, cada vez más, a golpe de talonario.
La pregunta para Europa y el mundo hispanohablante es sencilla y brutal: ¿vamos a dejar que las reglas de una tecnología transformadora se definan en función de quién paga más anuncios electorales, o seremos capaces de construir mecanismos democráticos y transparentes que pongan límites a ese juego?



