Chicas MAGA hechas por IA: cuando el catfishing político se vuelve un negocio escalable

22 de abril de 2026
5 min de lectura
Mujer rubia generada por IA con ropa patriótica en la pantalla de un móvil

1. Titular e introducción

Un estudiante de medicina indio, sin dinero y a miles de kilómetros de Estados Unidos, crea con IA a una enfermera rubia, patriota y ultraconservadora… y cientos de seguidores reales pagan por verla en bikini y leer sus eslóganes pro‑Trump. No es un hilo de X inventado: está ocurriendo.

El caso de Emily Hart ilustra hasta qué punto se han mezclado la política, el contenido para adultos y la inteligencia artificial generativa. En esta columna analizamos qué revela este fenómeno sobre las plataformas, por qué el formato “chica sexy + ideología” es tan eficaz, y qué implicaciones tiene para Europa y también para los mercados hispanohablantes de España y América Latina.


2. La noticia, en breve

Según relata Ars Technica, basándose en un reportaje original de WIRED, un estudiante de medicina de 22 años del norte de la India (llamado "Sam" en el artículo) utilizó herramientas de IA para crear a Emily Hart: una enfermera estadounidense, blanca y rubia, devota cristiana, pro‑armas y pro‑Trump, que publica fotos en bikini con mensajes MAGA.

Sam probó primero con imágenes genéricas de “chica guapa” generadas por IA en Instagram, pero apenas consiguió alcance. De acuerdo con lo publicado, pidió consejo al chatbot Gemini de Google, que le señaló el nicho conservador como especialmente rentable. A partir de ahí construyó la personalidad de Emily: pesca en hielo, cerveza, campo de tiro, referencias religiosas y ataques contra la inmigración, el aborto y lo “woke”.

El perfil creció rápido: millones de visualizaciones en Reels y decenas de miles de seguidores. La monetización llegó sobre todo fuera de Instagram: suscripciones y contenido erótico generado por IA en Fanvue (competidor de OnlyFans), además de camisetas con lemas MAGA. Ars Technica y WIRED mencionan otros perfiles similares – muchas veces policías, militares o sanitarias ficticias. Instagram acabó cerrando la cuenta de Emily por actividad fraudulenta, aunque es fácil encontrar imitaciones.


3. Por qué importa

No es solo la historia pícara de un “listillo” aprovechando la polarización estadounidense. Es una radiografía de la economía de la atención: quien mejor combine erotismo, identidad política y bronca, gana. Y la IA baja radicalmente la barrera de entrada.

Ganadores potenciales:

  • Los buscavidas digitales: Con un portátil y un buen prompt, alguien desde cualquier país puede exprimir económicamente la cultura MAGA, el progresismo “woke” o cualquier otra tribu ideológica.
  • Las plataformas y los proveedores de IA: Cada vídeo viral, cada discusión en comentarios y cada suscripción suma minutos de pantalla y datos de usuario. Aunque las normas hablen de “marcar” contenido generado por IA, el incentivo económico va por otro lado.
  • Actores políticos agresivos: Hoy es un estudiante; mañana puede ser un partido, un lobby o incluso una operación de desinformación extranjera manejando decenas de avatares así.

Perdedores claros:

  • Creadoras reales y trabajadoras sexuales, que compiten con modelos sintéticos perfectos, sin cansancio ni riesgos laborales.
  • Usuarios y votantes, expuestos a identidades diseñadas para provocar deseo y rabia, no para informar.
  • La conversación democrática, que se vuelve más cínica y confusa cuando ya no sabemos si esa “enfermera cristiana de Texas” es una persona o un personaje.

El dato psicológico clave es que muchos seguidores, según el reportaje, parecían indiferentes ante la posibilidad de que Emily fuera falsa. Les gustaba el mensaje, les gustaba la fantasía, y eso bastaba. Esa indiferencia ante la verdad es exactamente lo que convierte a los avatares políticos generados por IA en armas tan peligrosas.


4. El panorama general

Emily Hart encaja en una tendencia mayor que estamos viendo tanto en Silicon Valley como en redes globales:

  1. Propaganda hiperpersonalizada: Ya circulan deepfakes de líderes políticos, audios fabricados y vídeos de campaña creados con IA. El siguiente paso son personajes persistentes: “amigos”, “novias virtuales” o “mentores” que charlan, envían mensajes privados y poco a poco moldean opiniones.

  2. Algoritmos adictos al morbo y al conflicto: TikTok, Instagram, YouTube… todos optimizan para que sigamos deslizando el dedo. El contenido que mejor funciona suele mezclar indignación y estímulo sexual. Las “MAGA hotties” son simplemente el producto optimizado para esa función.

  3. Identidades como producto: Cada vez más, las plataformas dejan de ser espacios de interacción entre personas para convertirse en catálogos de “objetos de contenido”. Que esos objetos tengan detrás a un ser humano, a una IA o a un equipo de marketing es secundario mientras generen métricas.

No es completamente nuevo: hace una década ya existían granjas de bots, páginas falsas de “noticias locales” y perfiles inventados para influir en elecciones. La diferencia está en la escala y el realismo. Lo que antes requería diseñadores, redactores y tiempo, ahora cabe en una sola persona con acceso a buenos modelos generativos.

Para las plataformas de contenido para adultos se perfila una división clara. OnlyFans insiste en verificar la identidad de los creadores y exigir transparencia sobre uso de IA. Otros, como Fanvue, se posicionan abiertamente como refugio para modelos sintéticos. Esa misma tensión – entre control y “todo vale” – veremos en redes sociales generalistas y aplicaciones de mensajería.


5. El ángulo europeo e hispanohablante

Para Europa, el caso ofrece un ejemplo concreto de los retos que tratan de abordar el Reglamento de Servicios Digitales (DSA) y el Reglamento de IA de la UE. Ambos insisten en la responsabilidad de las grandes plataformas frente a la desinformación, la transparencia algorítmica y los riesgos sistémicos de la IA.

Avatares políticos generados por IA como Emily se sitúan justo en las fronteras de varias categorías: son contenido sexualizado, comercio electrónico y comunicación política a la vez. De cómo se clasifiquen dependerán obligaciones de etiquetado, límites publicitarios y posibles sanciones.

En España y América Latina el contexto es similar, pero con matices. Países como México, Brasil o Argentina han vivido campañas marcadas por la polarización en redes. No cuesta imaginar una “madre católica anti‑ideología de género” o una “influencer provida” generadas por IA operando en español o portugués, creadas desde cualquier país.

Al mismo tiempo, en estos mercados hay oportunidades para soluciones de verificación y alfabetización digital: startups que ayuden a medios, partidos y ciudadanos a detectar contenido sintético, verificar la identidad de influencers y entender mejor cómo les influyen los algoritmos. Para un público hispanohablante disperso en varios continentes, la cuestión de “¿quién hay realmente detrás de esta cuenta?” será cada vez más relevante.


6. Mirando hacia adelante

¿Qué podemos esperar a corto y medio plazo?

  1. Fábricas de personajes: Lo que hoy hace un estudiante a mano, mañana lo harán sistemas automáticos que gestionan decenas de perfiles a la vez. Crearán imágenes, textos, respuestas personalizadas y estrategias de crecimiento, optimizadas con pruebas A/B. El salto de “soft porn político” a propaganda pura y dura es mínimo.

  2. Reacción regulatoria y técnica: Bajo presión de Bruselas, de organismos electorales y de la opinión pública, las grandes plataformas tendrán que avanzar en marcado de contenido generado por IA, en sistemas de procedencia (como estándares tipo C2PA) y en auditorías externas sobre riesgo político. Eso no eliminará los abusos, pero sí podrá hacerlos más costosos y visibles.

  3. Normalización y contra‑movimiento: A medida que los usuarios perciban que gran parte de lo que ven son personajes sintéticos, es probable que surja un valor añadido en lo “auténtico”. Influencers y medios podrían empezar a vender su humanidad verificada – “no somos IA, somos personas reales” – como un sello de calidad.

Aspectos a vigilar para lectores de habla hispana:

  • ¿Cómo tratarán las leyes electorales en España y América Latina a ejércitos de avatares políticos gestionados con IA? ¿Publicidad, donación encubierta, injerencia exterior?
  • ¿Podrán las tecnologías de detección seguir el ritmo de modelos de imagen y vídeo de código abierto ejecutados de forma privada?
  • ¿Qué papel jugarán las plataformas de pago y publicidad cuando el escándalo de los “políticos catfish” les salpique directamente?

Hoy por hoy, la asimetría es clara: es barato experimentar con estos métodos, y caro – técnica y políticamente – perseguirlos.


7. Conclusión

Emily Hart no es una anécdota morbosa sino un anticipo de un modelo de negocio: avatares hiper‑sexualizados y ultra‑ideológicos capaces de convertir pulsiones políticas en dinero y datos. Mientras las plataformas premien el engagement por encima de la autenticidad, veremos más “chicas MAGA”, “militares patriotas” y “mamás tradicionales” generadas por IA inundando nuestros feeds. La cuestión es si vamos a seguir haciendo clic como si nada, o si empezaremos a preguntarnos, cada vez que veamos una figura demasiado perfecta para ser real: ¿quién, o qué, está realmente hablando conmigo?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.