Ray-Ban Meta: cuando la IA en tus gafas convierte tu casa en material de entrenamiento

6 de marzo de 2026
5 min de lectura
Persona con gafas Ray‑Ban Meta, con la cámara integrada resaltada en la montura

Ray-Ban Meta: cuando la IA en tus gafas convierte tu casa en material de entrenamiento

Trabajadores en Kenia viendo desde un escritorio escenas de personas desnudas, teniendo sexo o usando el baño, grabadas con unas gafas “inteligentes” vendidas como seguras y privadas. No es el guion de una serie de Netflix, sino lo que se está denunciando en torno a las Ray‑Ban Meta. El caso va mucho más allá de otro tropiezo de Meta con la privacidad: expone cómo funciona realmente la cadena de suministro de datos en la era de la IA generativa y qué significa, en la práctica, tener “humanos en el circuito”. En este artículo analizamos el impacto para usuarios en Europa y el mundo hispanohablante.


2. La noticia en breve

Según resume Ars Technica a partir de una investigación de medios suecos, empleados de Sama –empresa con sede en Kenia que trabaja como subcontratista de Meta– aseguran que revisan vídeos grabados con las gafas Ray‑Ban Meta que muestran situaciones muy íntimas. Más de 30 trabajadores actuales y anteriores habrían sido entrevistados; algunos describen grabaciones de personas desnudas, manteniendo relaciones sexuales o usando el baño, aparentemente sin saber que estaban siendo filmadas.

Meta confirmó a la BBC que parte del contenido que los usuarios envían al chatbot Meta AI se comparte con contratistas externos para mejorar el servicio, afirmando que se aplican filtros de privacidad, como difuminar rostros. Sus políticas para wearables y para Meta AI indican que fotos, vídeos y transcripciones pueden ser procesados por sistemas de aprendizaje automático y por revisores humanos, incluidos proveedores externos.

Las revelaciones han motivado una carta del regulador británico de protección de datos (ICO) y una propuesta de demanda colectiva en Estados Unidos contra Meta y Luxottica. La demanda sostiene que el marketing de las gafas como privadas y controladas por el usuario resulta engañoso si trabajadores en otros países pueden ver y catalogar escenas profundamente personales.


3. Por qué importa

Lo fácil es concluir que “Meta vuelve a las andadas”. Lo incómodo es reconocer que el problema está incrustado en la forma actual de construir productos con IA.

Meta gana al alimentar sus modelos con datos reales del mundo físico, clave para competir con OpenAI, Google o Apple. Sama y otras empresas de anotación ganan contratos. Los primeros usuarios disfrutan de unas gafas con cámara siempre lista, comandos de voz y un asistente capaz de describir lo que ve.

Los que pierden son, sobre todo, quienes no eligieron nada de eso: parejas que se cambian de ropa en el dormitorio, compañeros de piso, niños, clientes de un bar de barrio, pacientes en una sala de espera. Y también muchos propietarios de las gafas, que probablemente no han leído ni entendido hasta qué punto ciertas funciones –como la conexión con Meta AI o el procesamiento en la nube– abren la puerta a que humanos revisen sus clips.

Aquí se ve el desfase entre el eslogan y la letra pequeña. En el anuncio, las gafas son privadas y “bajo tu control”. En la práctica, la realidad se esconde en párrafos de política de privacidad: menciones genéricas a “mejorar nuestros servicios”, “proveer nuestros productos” y “trabajar con proveedores externos”. Legalmente puede considerarse consentimiento; éticamente se parece más a un desequilibrio de información.

Además, las gafas son discretas. No levantamos el teléfono, no apuntamos la cámara: simplemente miramos. Un pequeño LED rojo no compensa las normas sociales que todavía dan por hecho que el baño, el dormitorio o el interior de una casa de familia no son escenarios de grabación. Una vez que el vídeo llega a un servidor, la pregunta deja de ser si alguien lo verá y pasa a ser quién, dónde y para qué.


4. El contexto más amplio

La industria ya ha pasado por algo parecido.

Google Glass fracasó en buena medida por el rechazo social a las cámaras en la cara; el término “Glasshole” capturó ese malestar. Las Spectacles de Snap evitaron esa reacción gracias a su estética juguetona y a funciones limitadas. Las Ray‑Ban Meta se presentan como gafas normales de una marca icónica, pero añaden micrófonos, cámaras y funciones de IA en segundo plano.

Al mismo tiempo se repite un patrón conocido: la externalización del trabajo sucio de la moderación y la anotación. Moderadores de Facebook en Kenia o Filipinas han denunciado el impacto psicológico de ver contenido extremo durante horas. OpenAI y otros han sido criticados por apoyarse en mano de obra poco pagada para limpiar y etiquetar datos. El caso de las Ray‑Ban lleva ese esquema al interior de nuestras casas. “Human in the loop” suena bien en una presentación técnica; cuesta más aceptarlo cuando ese humano puede estar mirando tu salón.

Los competidores marcan diferencias. Apple ha hecho bandera de la computación en el dispositivo y de limitar el acceso de apps y servidores a datos particularmente sensibles, como el seguimiento de la mirada en Vision Pro. Aunque tampoco sea perfecto, es una filosofía distinta a la de Meta, mucho más apoyada en la nube y en acumular datos.

El momento es delicado para Meta. Las gafas inteligentes son una pieza central de su apuesta por la era post‑smartphone y por la realidad aumentada. Si el imaginario público se fija en las escenas de baño y dormitorio y no en la utilidad, todo el segmento de gafas con cámara puede volver a quedar tocado, como ocurrió tras Google Glass.


5. El ángulo europeo e hispano

En Europa la cuestión no es solo moral; es legal. El RGPD considera especialmente protegidos los datos sobre salud, sexualidad o rasgos biométricos. Un vídeo grabado en un hogar o un baño puede exponer todo eso a la vez. Enviar sistemáticamente ese material a anotadores en un tercer país abre debates sobre base jurídica, minimización, necesidad y garantías en las transferencias internacionales.

A esto se suman nuevas normas. La Ley de Servicios Digitales obliga a plataformas muy grandes como Meta a dar más transparencia sobre sus sistemas de recomendación y moderación. La futura Ley de IA de la UE introduce obligaciones de gobernanza sobre datos de entrenamiento y riesgos. Juntas, complican que se esconda un uso expansivo de datos bajo la excusa genérica de “mejorar el servicio”.

Para España y América Latina hay matices propios. Los países hispanohablantes son, en general, muy intensivos en el uso de Instagram, Facebook y WhatsApp. En muchos mercados latinoamericanos, pequeñas empresas dependen de Meta para vender. Eso da a la compañía un poder enorme, pero también la expone a reguladores cada vez más activos, como la AEPD en España o autoridades en Brasil, México, Argentina o Colombia, que miran con lupa casos de videovigilancia y biometría.

Al mismo tiempo, para startups de la región hay una oportunidad clara: diseñar wearables y servicios de IA verdaderamente “privacy‑first”, con procesamiento local, borrado rápido y, por defecto, sin revisión humana. En un entorno de desconfianza creciente, ese enfoque puede ser una ventaja competitiva real.


6. Mirando hacia adelante

¿Qué viene ahora?

En Estados Unidos, la demanda colectiva contra Meta y Luxottica podría tardar años, pero probablemente sacará a la luz documentos internos. Eso puede aclarar cuánto material de gafas llega a revisores humanos, cómo se selecciona y qué controles existen realmente.

En Europa y el Reino Unido, los reguladores aprovecharán el caso para marcar líneas rojas. Es razonable esperar más presión para cambiar valores por defecto, reforzar las señales de grabación, limitar el tiempo de almacenamiento y separar con más claridad la función “cámara” de las capas de IA y entrenamiento de modelos.

Meta, por su parte, tiene incentivos para ceder en algunos puntos: hacer que ciertas funciones de IA requieran un opt‑in explícito, explicar mejor dentro de la app qué implica activar el procesamiento en la nube, ofrecer más garantías de procesamiento en el dispositivo para usuarios europeos. Son movimientos relativamente baratos si con ello preserva la viabilidad de la categoría.

Para los usuarios hispanohablantes, dentro y fuera de la UE, la pregunta inmediata es pragmática: ¿necesito realmente unas gafas con cámara conectada a la nube? ¿Dónde voy a llevarlas puestas? ¿Estoy dispuesto a asumir que, si pueden ver algo, quizá acabe en la pantalla de alguien al otro lado del mundo?


7. Conclusión

El caso de las Ray‑Ban Meta no es un accidente aislado, sino la consecuencia lógica de combinar cámaras siempre encendidas, IA en la nube y trabajo humano opaco en la trastienda. Mientras el diseño de wearables priorice recolectar datos frente a minimizarlo, veremos más historias como esta. La verdadera “privacidad desde el diseño” exige decir la verdad incómoda: si tu dispositivo puede verlo u oírlo, existe la posibilidad de que otra persona también lo haga. ¿Hasta dónde queremos llevar esa frontera, como individuos y como sociedad?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.