1. Titular e introducción
Muchos usuarios se han acostumbrado a contarle a la IA lo que no se atreverían a escribir en un buscador tradicional: miedos de salud, problemas legales, deudas. La promesa implícita es de intimidad. La demanda contra Perplexity en Estados Unidos rompe esa ilusión: su Modo Incógnito estaría, según el demandante, construido sobre las mismas tuberías publicitarias que llevan años alimentando el negocio de Google y Meta.
En este artículo analizamos qué dice realmente la demanda, quién gana y quién pierde, cómo encaja esto en la evolución de la industria de la IA y la publicidad, y qué significa para usuarios y empresas en España y América Latina.
2. La noticia en resumen
Según ha explicado Ars Technica, un usuario anónimo de Perplexity ha presentado una demanda colectiva en Estados Unidos contra Perplexity, Google y Meta. La acusación principal: el motor de búsqueda con IA de Perplexity envía de forma sistemática los chats de los usuarios a Google y Meta mediante tecnologías de seguimiento como Meta Pixel, Google Ads y DoubleClick.
La demanda sostiene que esto ocurre tanto con usuarios registrados como con visitantes anónimos, incluidos quienes activan explícitamente el llamado Modo Incógnito. Junto con los textos de las conversaciones se habrían transmitido identificadores personales (como direcciones de correo) y contenidos altamente sensibles sobre finanzas, impuestos, asesoría legal y consultas de salud.
El colectivo propuesto abarcaría a determinados usuarios estadounidenses cuyos chats se habrían compartido entre el 7 de diciembre de 2022 y el 4 de febrero de 2026, con un subgrupo específico en California. El demandante alega violaciones de leyes federales y estatales de privacidad y escucha ilegal, y solicita medidas cautelares, daños legales y punitivos, y devolución de beneficios.
3. Por qué importa
Si las alegaciones se confirman, estamos ante algo más grave que un fallo técnico: es un choque frontal entre la narrativa de la IA «de confianza» y la realidad de un ecosistema publicitario que nunca se rediseñó para tratar conversaciones íntimas.
Quienes pueden salir ganando son los proveedores que han apostado por modelos de pago o empresariales con límites claros al uso de datos, incluidos proyectos europeos y latinoamericanos que explotan el argumento de «sin Big Tech de por medio». Los perdedores obvios son Perplexity y sus inversores, pero también Google y Meta, que vuelven a aparecer como la fontanería invisible por la que acaba circulando casi todo.
El corazón del problema está en las expectativas. Un usuario medio entiende «modo incógnito» como algo cercano a: nada o muy poco seguimiento, sin perfiles personales a largo plazo. Los tribunales estadounidenses ya han cuestionado a Google por la forma en que presentaba el modo incógnito de Chrome. Si un producto de IA promete incognito y al mismo tiempo envía chats completos con identificadores a grandes plataformas publicitarias, el riesgo de que se considere engañoso es evidente.
Además, la IA conversacional amplifica la sensibilidad de los datos. Un solo chat donde subimos análisis médicos, documentos fiscales o contratos puede valer más, en términos de intimidad, que meses de navegación web. Poner eso al servicio del targeting publicitario no es solo una mala idea de producto; puede convertirse en el mejor argumento para quienes llevan años reclamando una ruptura total con el modelo de vigilancia comercial.
4. El panorama más amplio
El caso Perplexity se suma a una cadena de episodios que revelan la misma tensión: productos de IA que se lanzan a toda velocidad sobre cimientos de seguimiento pensados para otra época.
En los últimos años hemos visto, entre otros ejemplos:
- conversaciones de ChatGPT que acabaron visibles en contextos públicos o judiciales;
- hospitales y servicios de telemedicina demandados en EE. UU. por incluir Meta Pixel o rastreadores de Google en portales de pacientes;
- un cuestionamiento creciente del uso de herramientas de analítica estadounidenses en contextos regulados, especialmente en Europa.
La IA conversacional, sin embargo, es un salto cualitativo. No se trata solo de saber qué página visitas, sino de conocer tus miedos, tus diagnósticos, tus conflictos familiares. Y muchas interfaces de IA, incluida la de Perplexity según la demanda, animan de forma proactiva al usuario a subir informes, biopsias, contratos o planes de tratamiento.
En términos competitivos, el sector se bifurca. De un lado, los gigantes publicitarios que integran la IA en su maquinaria existente para exprimir aún más datos. Del otro, herramientas que venden precisamente lo contrario: modelos locales, autoalojados, cifrado fuerte, ausencia de rastreadores. Si los reguladores empiezan a tratar los logs de chat como datos de categoría casi clínica, el relato de la «IA privada» dejará de ser nicho y se convertirá en requisito.
5. Clave europea y latinoamericana
Para usuarios en España y en la Unión Europea, esta historia encaja perfectamente con un debate ya conocido: hasta qué punto es compatible el modelo de vigilancia publicitaria estadounidense con el Reglamento General de Protección de Datos. Enviar transcripciones de chats llenos de información sanitaria o financiera a terceros para publicidad o analítica difícilmente encajaría en el marco del RGPD sin una base jurídica muy sólida y un consentimiento explícito.
Las autoridades europeas ya han dado señales claras. Italia llegó a bloquear temporalmente ChatGPT en 2023; varias agencias han cuestionado el uso de Google Analytics por transferencias a Estados Unidos. El paquete normativo se completa ahora con la Ley de Servicios Digitales y la puesta en marcha del Reglamento de IA, que apuntan precisamente a mayor transparencia, limitaciones en la elaboración de perfiles y obligaciones de gestión de riesgos.
En América Latina, aunque el panorama regulatorio es más heterogéneo, la tendencia va en la misma dirección: Brasil con su LGPD, México y Argentina con reformas en discusión, Chile avanzando en protección de datos. Para startups de la región que quieran vender IA a empresas o gobiernos, copiar sin más la pila de rastreo de Silicon Valley es abrir la puerta a futuros problemas legales.
6. Mirando hacia adelante
El primer hito será ver si el tribunal estadounidense admite la demanda colectiva y cómo se desarrolla la fase de descubrimiento de pruebas. Correos internos sobre el diseño del Modo Incógnito, decisiones sobre qué datos enviar a Google y Meta, y evaluaciones internas de riesgo podrían salir a la luz. Ese material interesa no solo por Perplexity: marcará el estándar sobre qué se considera una expectativa razonable de privacidad en interfaces de IA.
Se perfilan varios escenarios:
- acuerdo extrajudicial con cambios de producto: un modo realmente sin rastreo, menos integraciones con adtech y avisos claros desde la página de inicio;
- ola de demandas similares contra otros proveedores de IA que utilicen los mismos trackers, especialmente en sectores sensibles como salud, finanzas o educación;
- guías más estrictas de autoridades como la FTC en EE. UU. y los reguladores de datos europeos y latinoamericanos sobre cómo debe tratarse la información de chats de IA.
Para los usuarios, el consejo incómodo pero realista es sencillo: trate cualquier servicio de IA en la nube como si pudiera registrar y reutilizar lo que escribe. Si va a compartir algo que le avergonzaría ver impreso en la portada de un periódico, probablemente ese contenido no pertenece a un chatbot público, por muy «incógnito» que suene.
En el medio plazo, es probable que el mercado se divida entre asistentes «baratos» pero muy intrusivos y alternativas más caras o autoalojadas que ofrecen garantías reales de privacidad. La pregunta para el público hispanohablante, tanto en Madrid como en Ciudad de México o Buenos Aires, será si estamos dispuestos a pagar por esa diferencia o si repetiremos la historia de las redes sociales: nada de pago en la factura, pero un coste oculto en cada clic.
7. Conclusión
El caso del Modo Incógnito de Perplexity no es un simple desliz de marketing, sino un síntoma de algo más profundo: una industria de IA que corre sobre rieles publicitarios diseñados para otra era. Si tribunales y reguladores consideran las conversaciones con IA como una de las formas más sensibles de datos personales, los proveedores tendrán que replantear de raíz su arquitectura de seguimiento. Hasta entonces, conviene leer la palabra «privado» en las interfaces de IA con escepticismo y hacerse una pregunta incómoda: ¿a qué precio estamos comprando la comodidad de preguntarle cualquier cosa a una máquina?



