Grammarly y sus ‘editores’ falsos: cuando la IA decide apropiarse del prestigio ajeno

12 de marzo de 2026
5 min de lectura
Ilustración de un asistente de escritura con IA superpuesto a retratos de autores conocidos

1. Titular e introducción

Lo de Grammarly no es solo una mala idea de producto. Es otra señal de que la industria de la IA se ha convencido de que el prestigio profesional de otras personas es un recurso gratuito más.

Con su función Expert Review, la empresa convirtió a periodistas, novelistas y científicos en supuestos editores de IA sin pedirles permiso. La demanda colectiva interpuesta por la periodista Julia Angwin no va solo de daños económicos: cuestiona la premisa de que cualquier nombre conocido, desde Nueva York hasta Ciudad de México, pueda ser empaquetado como filtro para un modelo generativo. En este análisis repasamos qué está en juego para los creadores, para las plataformas y para los mercados hispanohablantes.

2. La noticia en breve

Según informa TechCrunch, Grammarly lanzó recientemente una nueva función de suscripción llamada Expert Review. Por 144 dólares al año, los usuarios recibían comentarios generados por IA presentados como si procedieran de figuras reconocidas: el escritor Stephen King, el fallecido científico Carl Sagan o periodistas tecnológicas como Kara Swisher y Julia Angwin, entre otros.

TechCrunch señala que ninguno de estos expertos había autorizado el uso de su nombre o de su supuesta voz editorial. Angwin ha presentado ahora una demanda colectiva contra Superhuman, la empresa matriz de Grammarly, alegando violaciones de sus derechos de privacidad y de imagen, así como los de otros autores afectados.

Periodistas que probaron la función describen el feedback como vago y genérico. Tras la polémica, el director ejecutivo de Superhuman, Shishir Mehrotra, anunció en LinkedIn que la función había sido desactivada y ofreció una disculpa, aunque defendió la idea básica del producto.

3. Por qué importa

La tentación es reírse de otro experimento de IA que promete mucho y ofrece poco. Pero el problema aquí es estructural.

Grammarly intentó convertir en producto algo muy delicado: la confianza que asociamos al nombre de una persona concreta. No es lo mismo entrenar un modelo con textos de acceso público que decirle al usuario que está recibiendo una versión sintética del criterio de Kara Swisher o de Julia Angwin. Eso se acerca peligrosamente al terreno del aval publicitario falso y de la explotación de la imagen sin consentimiento.

A corto plazo, la jugada era clara: subir de categoría, de corrector gramatical a consultor editorial de lujo, y justificar así una cuota anual más alta. Los perdedores son los autores y expertos que han invertido décadas en construir una reputación que ahora se empaqueta como “piel” para un modelo genérico, sin remuneración ni control.

Además, hay un coste en confianza social. Si cualquier app puede imitar el tono de tu columnista favorito o de tu profesor de universidad, ¿cómo distingues entre interacción auténtica y marketing con esteroides? Normalizar este tipo de dobles sintéticos devalúa la experiencia humana y difumina la responsabilidad cuando el consejo es malo o dañino.

El mensaje para el sector es claro: la era del “pide perdón, no permiso” aplicada a la identidad tiene los días contados, especialmente cuando entren en juego tribunales y reguladores.

4. El panorama más amplio

El caso Grammarly encaja en varias tendencias recientes.

En los últimos años hemos visto demandas contra grandes compañías de IA por entrenar modelos con libros, artículos periodísticos y código sin licencias. Se multiplican los anuncios con deepfakes y los “influencers” generados por IA que se parecen sospechosamente a famosos. Algunas voces sintéticas han provocado quejas públicas por parecerse demasiado a actrices reales.

Meta experimenta con chatbots inspirados en celebridades. OpenAI recibió críticas por una voz de asistente que muchos consideraron muy similar a la de Scarlett Johansson. La lógica de negocio es la misma: empaquetar la familiaridad y credibilidad de figuras conocidas en herramientas siempre disponibles, baratas y escalables.

Expert Review lleva esa lógica al terreno del criterio editorial. Es el mensaje implícito de muchas startups de Silicon Valley: “¿para qué pagar a un buen editor o crítico, si puedes tener una versión de IA que se siente parecida?” Desde la óptica financiera suena eficiente; desde la óptica de derechos laborales y culturales parece otra vuelta de tuerca a la precarización del trabajo intelectual.

Históricamente, la publicidad ya chocó con este muro. En Estados Unidos hubo casos en los que las marcas perdieron demandas por usar dobles o voces imitadas de celebridades en anuncios de televisión. La diferencia ahora es el alcance: no hablamos de un spot de 30 segundos, sino de sistemas conversacionales que pueden reproducir un estilo o un tono miles de veces al día, en cualquier idioma.

Si los jueces aplican ese mismo principio a la IA, lo de Grammarly será solo el comienzo.

5. El ángulo europeo e iberoamericano

Desde Europa, el movimiento de Grammarly parece directamente una invitación a que intervengan las autoridades.

El RGPD considera el nombre y otros identificadores como datos personales. Una función que comercializa una “versión de IA” reconocible de una persona concreta difícilmente podría justificarse sin base legal sólida, y menos aún sin consentimiento. El nuevo Reglamento de IA de la UE, con sus obligaciones de transparencia y gestión de riesgos, añade otra capa de presión sobre este tipo de experimentos.

En países como España, Francia o Alemania, el derecho a la propia imagen y al honor es fuerte. Utilizar la identidad de un periodista o de una académica como gancho comercial, aunque sea en forma de imitación algorítmica, podría interpretarse como una vulneración directa.

Para los mercados hispanohablantes de América Latina hay una doble lectura. Por un lado, muchos creadores dependen de plataformas globales y tienen aún menos capacidad de negociación cuando su contenido se usa para entrenar IA. Por otro, empieza a abrirse espacio para startups locales de IA que se posicionen como respetuosas con los derechos de autor y la identidad, algo que puede convertirse en ventaja competitiva frente a modelos importados desde Estados Unidos.

6. Mirando hacia adelante

El futuro de este conflicto dependerá de dos dinámicas: qué digan los tribunales y cómo reaccione el mercado.

En Estados Unidos, la demanda colectiva de Angwin tendrá que demostrar que Grammarly explotó comercialmente la identidad y el prestigio de personas reales sin consentimiento. El proceso de descubrimiento podría sacar a la luz correos internos, advertencias del equipo legal o evaluaciones de riesgo ignoradas. Si se acredita que la empresa asumió conscientemente el riesgo, las indemnizaciones pueden ser elevadas.

Incluso si Grammarly logra un acuerdo, otros afectados tendrán un mapa para presentar sus propias demandas. Y las compañías de seguros que cubren a empresas tecnológicas empezarán a exigir políticas mucho más estrictas para cualquier uso de nombres, voces o estilos identificables en productos de IA.

En cuanto al producto, el escenario más probable es la aparición de mercados de “personas licenciadas”: periodistas, coaches, divulgadores científicos y otros profesionales que autoricen de forma expresa una versión de IA de su estilo, a cambio de una participación en los ingresos y con límites contractuales claros. No es una solución perfecta, pero devuelve dos elementos clave: consentimiento y remuneración.

En Europa y el mundo hispanohablante, los próximos 18 a 24 meses serán cruciales. Veremos si las autoridades de protección de datos y los reguladores de medios se atreven a usar las herramientas que ya tienen para frenar la imitación no autorizada de identidades, o si harán falta nuevas normas específicas.

7. La conclusión

Expert Review no fue simplemente un experimento torpe de Grammarly: fue una demostración cruda de cómo la IA puede vaciar de contenido el prestigio profesional y revenderlo como envoltorio de lujo para un modelo genérico. Si tribunales y reguladores no marcan límites claros, nos espera un ecosistema lleno de “expertos” sintéticos y cada vez menos espacio para las voces reales. La pregunta para autores y lectores hispanohablantes es incómoda pero necesaria: ¿cuánto de tu identidad estás dispuesto a regalarle a la próxima plataforma de moda?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.