El PAC de Anthropic: cuando la “IA segura” se convierte en herramienta de poder político

3 de abril de 2026
5 min de lectura
Ilustración de un laboratorio de IA conectado con políticos en Washington DC

Anthropic, conocida por presentarse como el laboratorio de IA más prudente de Silicon Valley, acaba de dar un paso que cambia de escala: crear su propio comité de acción política en Estados Unidos. No es una anécdota local. Para cualquiera que use modelos de Anthropic desde Madrid, Ciudad de México o Buenos Aires, lo que ocurra en Washington terminará influyendo en qué se puede hacer (y qué no) con esa tecnología.

Este movimiento convierte la “seguridad en IA” en algo más que un debate técnico o ético: la transforma en una palanca de poder político. Veamos qué implica, quién gana, quién pierde y qué debería preocupar a los mercados hispanohablantes.

La noticia en breve

Según informa TechCrunch, Anthropic ha registrado ante la Comisión Federal Electoral de EE. UU. un nuevo comité de acción política (PAC) llamado AnthroPAC. En la documentación aparece la tesorera de Anthropic, Allison Rossi, como responsable.

De acuerdo con Bloomberg, citado por TechCrunch, el PAC se financiará con aportaciones voluntarias de empleados, limitadas a 5.000 dólares por persona. La intención declarada de AnthroPAC es apoyar a candidatos de ambos partidos principales en las próximas elecciones de mitad de mandato, incluyendo legisladores en activo y nuevas figuras emergentes.

TechCrunch recuerda que Anthropic ya venía moviendo ficha en política. The Washington Post señaló recientemente que las empresas de IA han aportado en conjunto alrededor de 185 millones de dólares al actual ciclo electoral. Por su parte, The New York Times reveló que un Super PAC llamado Public First recibió al menos 20 millones de dólares de Anthropic, que se usaron para campañas publicitarias a favor de una agenda regulatoria concreta.

Todo ello sucede mientras Anthropic mantiene un conflicto legal con el Departamento de Defensa de EE. UU. sobre el uso de sus modelos de IA y las normas que deberían regir ese uso en el ámbito militar.

Por qué importa

Este PAC no es “uno más” en el ecosistema de lobby tecnológico. Marca el punto en el que la narrativa de la IA segura pasa a ser también una estrategia de influencia política y de negocio.

Anthropic ha construido su reputación alertando sobre riesgos graves de la IA generativa: desinformación, usos militares delicados, modelos fuera de control. Que esa misma empresa cree ahora un PAC plantea dos lecturas complementarias:

  1. La seguridad entra de lleno en la agenda legislativa. Hasta ahora, muchos debates en el Capitolio sobre IA estaban dominados por lobbies generalistas de big tech. Un PAC vinculado a investigadores que llevan años hablando de riesgos reales puede empujar hacia normas más serias: pruebas de seguridad, auditorías, obligaciones de informar sobre incidentes, etc.

  2. La seguridad se convierte en barrera de entrada. Cuando “IA responsable” se traduce en requisitos legales complejos, la pregunta es quién puede cumplirlos sin ahogarse. Los grandes laboratorios con capital, abogados y equipos de compliance tendrán ventaja. Para startups pequeñas o comunidades open source, ese mismo marco regulatorio puede convertirse en un muro infranqueable.

Beneficiados potenciales:

  • Anthropic y otros laboratorios de frontera, que influyen directamente en los estándares que deberán cumplir todos.
  • Los grandes proveedores cloud, que venden infraestructura y servicios de cumplimiento normativo en paquete.
  • Políticos que pueden presentarse como “serios con la IA” apoyándose en marcos propuestos por la industria.

Perjudicados potenciales:

  • Emprendedores y proyectos open source, sin recursos para contratar lobbies ni seguir el ritmo regulatorio.
  • Organizaciones de la sociedad civil, que ahora tendrán que plantar cara no solo a Big Tech en general, sino también a PACs especializados en IA.

La consecuencia inmediata es que el debate regulatorio sobre IA en EE. UU. dependerá aún más de quién tenga capacidad financiera para sentarse a la mesa. Y dado que muchos productos digitales en España y América Latina usan APIs y modelos estadounidenses, ese debate se filtrará hasta nuestros mercados.

El panorama más amplio

El PAC de Anthropic es parte de una carrera armamentística de influencia política en torno a la IA.

Las grandes tecnológicas llevan décadas invirtiendo en PACs, donaciones y think tanks. La novedad ahora es que la IA generativa afecta directamente a información, opinión pública y seguridad nacional. Eso dispara el interés de gobiernos y, por tanto, el valor de influir en las reglas del juego.

En los últimos años hemos visto:

  • compromisos “voluntarios” de empresas de IA con la Casa Blanca sobre prácticas de seguridad,
  • esfuerzos intensos de lobby en torno a posibles leyes federales de IA en EE. UU., aún incipientes frente al avance europeo,
  • comparecencias de CEOs de IA ante el Congreso, alternando discursos sobre riesgos existenciales con propuestas de colaboración comercial con el propio gobierno.

En ese contexto, AnthroPAC es casi un paso lógico. Lo que cambia es la transparencia formal: un PAC financiado por empleados y grandes aportaciones a un Super PAC identificado por la prensa. Otros jugadores prefieren operar vía asociaciones sectoriales, donaciones a universidades o apoyo discreto a organizaciones sin ánimo de lucro.

En todos los casos, el patrón es el mismo: los marcos conceptuales que manejan los legisladores sobre la IA vienen, en buena parte, predefinidos por la industria. Y eso condiciona cómo se entienden y se priorizan los riesgos.

Históricamente, ya vimos algo parecido con telecomunicaciones, banca o redes sociales. Primero llega la tecnología, luego los escándalos, después la regulación… y, en cada fase, un lobby bien financiado que intenta inclinar el campo de juego a su favor. La diferencia con la IA es que ahora hablamos de sistemas capaces de generar discursos, imágenes y código a escala masiva: herramientas que influyen directamente en la conversación pública.

El ángulo europeo e hispanohablante

Para Europa y para el mundo hispanohablante, el movimiento de Anthropic tiene varias lecturas.

La UE se ha consolidado como potencia reguladora con el RGPD, la Ley de Servicios Digitales (DSA), la Ley de Mercados Digitales (DMA) y ahora la Ley de IA. Bruselas aspira a fijar estándares globales. Pero, mientras tanto, en Washington la industria de IA construye una maquinaria política propia.

Esto puede tener varios efectos:

  • Desfase regulatorio transatlántico. Si EE. UU., bajo la influencia de PACs como el de Anthropic, adopta normas más suaves o más alineadas con los intereses de los grandes laboratorios, muchas empresas optarán por tratar el marco estadounidense como referencia práctica y el europeo como “coste añadido”.
  • Influencia indirecta en Bruselas y Madrid. Aunque los PAC son una figura muy estadounidense, nada impide a estas compañías financiar centros de estudios, consultoras y asociaciones que presionen en la UE, España o América Latina a favor de marcos más indulgentes.
  • Presión sobre alternativas locales. Proyectos europeos de IA (Mistral, Aleph Alpha) o latinoamericanos emergentes tendrán que competir con gigantes que no solo dominan la tecnología, sino también los códigos de la política estadounidense.

Para startups en Barcelona, Bogotá o Santiago que usan modelos de Anthropic vía API, lo que haga AnthroPAC no es abstracto. Si por presión regulatoria en EE. UU. Anthropic endurece las condiciones de uso en sectores como defensa, seguridad o infraestructuras críticas, esas restricciones llegarán automáticamente a usuarios en España y América Latina, aunque sus leyes nacionales sean distintas.

También hay un componente de soberanía digital. Muchos países latinoamericanos están discutiendo estrategias nacionales de IA, a menudo mirando a Bruselas y Washington. Si la regulación estadounidense viene preconfigurada por intereses corporativos, depender únicamente de ese marco como referencia puede resultar problemático.

Mirando hacia adelante

¿Qué podemos esperar en los próximos 12–24 meses?

  1. Seguimiento fino de las donaciones. Los informes públicos de la Comisión Federal Electoral permitirán ver a qué campañas apoya AnthroPAC. ¿Se trata de legisladores que impulsan una supervisión real o, sobre todo, de perfiles pro‑industria que envuelven la desregulación en el lenguaje de la “innovación responsable”?

  2. Convergencia entre lobby y contratos públicos. El litigio con el Departamento de Defensa deja claro que la batalla no es solo ideológica: está en juego quién suministra los modelos que usará el ejército estadounidense. Influir en normas de “IA segura” en defensa equivale a influir en contratos multimillonarios.

  3. Efecto demostración. Si AnthroPAC funciona, veremos más PACs específicos de IA y más alianzas empresariales dedicadas a “educar” a legisladores. Eso consolidará a los grandes como interlocutores casi obligados de los gobiernos.

  4. Reacción social y política. A medida que aumente el dinero de IA en la política estadounidense, surgirán propuestas para limitar su influencia, exigiendo más transparencia o incluso nuevas normas de financiación electoral. No será una batalla rápida, pero marcará el tono del debate público sobre quién manda realmente en la gobernanza de la IA.

Para empresas y desarrolladores en el mundo hispanohablante, la conclusión es clara: la política de IA es un riesgo y una oportunidad estratégica, no un ruido lejano. Quienes dependan de modelos de terceros deberían seguir no solo las hojas de ruta técnicas, sino también las jugadas políticas de esos proveedores.

La conclusión

El nuevo PAC de Anthropic es una señal clara de que la IA de frontera ha entrado de lleno en la lógica del poder político. Un laboratorio que habla de riesgos existenciales convierte ahora la “seguridad” en mensaje de campaña y, potencialmente, en ventaja competitiva.

Si eso se traduce en mejores salvaguardas o en un caso más de captura regulatoria dependerá de la transparencia de AnthroPAC y de la capacidad de respuesta de legisladores, reguladores y sociedad civil, también fuera de EE. UU.

La pregunta que queda sobre la mesa es incómoda pero necesaria: ¿queremos que las reglas de la IA que usamos cada día las escriban principalmente los parlamentos… o las empresas que desarrollan los modelos?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.