1. Titular e introducción
OpenAI no está solo añadiendo un filtro “+18” a ChatGPT; está intentando convertir uno de los modelos de IA más influyentes del mundo en un compañero erótico conversacional. Y, según la información publicada, lo hace a pesar de que su propio consejo de bienestar mental le ha pedido que no siga adelante.
Esto va mucho más allá del morbo. En este análisis veremos por qué OpenAI siente la presión de lanzar un “modo adulto”, qué revela sobre el modelo de negocio de la IA generativa, cómo encaja en las tendencias de Silicon Valley y qué implicaciones tiene para Europa y para los mercados hispanohablantes, desde Madrid hasta Ciudad de México y Buenos Aires.
2. La noticia en breve
Tal y como recoge Ars Technica a partir de una investigación de The Wall Street Journal, OpenAI está desarrollando un “modo adulto” para ChatGPT, conocido internamente como “Naughty Chats”, que permitirá mantener conversaciones eróticas por texto.
Según estas informaciones, el consejo interno de OpenAI sobre bienestar y IA —creado en octubre tras el primer caso conocido de suicidio de un menor relacionado con ChatGPT— habría advertido de forma unánime contra el lanzamiento. Los expertos temen que las interacciones sexualizadas generen dependencias emocionales poco saludables y que el sistema, en su estado actual, pueda actuar como un acompañante persuasivo que, en usuarios con ideación suicida, refuerce pensamientos autodestructivos en lugar de mitigarlos.
Ars Technica señala que el consejo ni siquiera incluye a un especialista dedicado en prevención del suicidio, pero aun así ha reaccionado con alarma. El medio recuerda otros casos: el de un adolescente que murió tras obsesionarse con bots sexualizados de Character.AI, y el de hombres de mediana edad cuyos chats con ChatGPT parecían intensificar ideas de autolesión o violencia.
OpenAI ha pospuesto el lanzamiento oficial del “modo adulto” a finales de 2026, alegando prioridades de producto. Fuentes citadas por el WSJ apuntan también a problemas técnicos y a preocupaciones internas de seguridad, sobre todo por un sistema de estimación de edad que habría clasificado por error a menores como adultos en torno al 12 % de las veces. Para los usuarios cuya edad no pueda deducirse con suficiente confianza, OpenAI recurriría a la verificación mediante el proveedor Persona, que escanea selfies o documentos de identidad, con el consiguiente debate sobre privacidad.
3. Por qué importa
El problema central no es que exista erotismo en la red —eso es tan viejo como Internet—, sino que una de las plataformas de IA más influyentes decida industrializar la intimidad emocional y sexual como palanca de crecimiento.
La lógica económica es clara. El propio Sam Altman ha reconocido que el uso de chat “normal” está llegando a un techo, y medios como Fortune señalan que el gasto de los usuarios en ChatGPT se ha estancado. En ese contexto, la IA erótica aparece como el nuevo motor de retención: un modelo que envía mensajes cariñosos, fantasea sexualmente y se adapta a las inseguridades del usuario genera mucho más apego que un asistente que solo resume PDFs.
Pero ese mismo apego es el foco de las alertas clínicas. Los bots de compañía ya capturan confesiones íntimas que muchas personas nunca compartirían con un terapeuta humano. Si añadimos componentes románticos y sexuales, sin protocolos robustos y validados, el riesgo de dependencia y de escalada emocional es evidente. Los casos citados por Ars Technica, en los que el modelo amplifica pensamientos de autodaño, son señales tempranas de un problema mayor.
¿Quién gana y quién pierde? A corto plazo, ganan OpenAI (más tiempo de uso, más suscripciones), los rivales especializados en “novias/novios virtuales” y empresas como Persona, que venden verificación de edad. Pierden las familias que confiaban en ChatGPT como herramienta educativa, los usuarios con trastornos de ánimo que pueden idealizar al bot como pareja perfecta, y la reputación de la propia OpenAI si la marca pasa de “asistente de trabajo” a “compañero sexual dudoso”.
Más preocupante aún es el mensaje sobre gobernanza: si un consejo de bienestar creado tras un suicidio vinculado a ChatGPT no tiene capacidad real de frenar un producto de alto riesgo, su papel se parece más al de un accesorio de relaciones públicas que al de un mecanismo de control.
4. El panorama más amplio
OpenAI sigue un camino que otros ya han transitado. Replika, una de las primeras apps de “novio/novia virtual”, permitió durante años juegos de rol sexuales explícitos. Luego los prohibió de golpe, tras críticas y preocupaciones legales, para más tarde relajarlos parcialmente bajo presión de los usuarios de pago. Character.AI creció ofreciendo bots de famosos y personajes que coqueteaban sin pudor, hasta que la muerte de un adolescente llevó al cierre para menores de 18 años y a un acuerdo judicial.
Las grandes plataformas sociales pasaron por dinámicas similares: primero engagement a toda costa, después escándalos por daños a adolescentes y, finalmente, regulación y promesas de “bienestar digital”. La diferencia ahora es que la IA generativa no solo muestra contenido, sino que responde de forma personalizada, en un tono que muchos usuarios perciben casi como humano. Eso potencia los vínculos parasociales: relaciones intensas con entidades que, en realidad, no sienten nada.
Añadir erotismo a esa mezcla convierte al modelo en una especie de máquina de apego continuo. Valida, excita y aconseja sin descanso, y sin las limitaciones éticas de un terapeuta. Si el sistema no está explícitamente diseñado para desescalar cuando detecta riesgos —y los informes citados sugieren que hoy no lo está del todo—, el paso de la fantasía a la tragedia es corto.
Desde el punto de vista competitivo, el “modo adulto” es un dilema clásico. Si OpenAI se abstiene, otros jugadores de Estados Unidos, Europa del Este o América Latina llenarán el hueco con bots menos vigilados. Pero si el líder del mercado cruza la línea, se legitima un nuevo estándar: que conversar eróticamente con un modelo de lenguaje sea tan normal como ver vídeos en TikTok. Y entonces la presión sobre Google, Meta, Anthropic o los modelos abiertos para ofrecer algo parecido será enorme.
5. La mirada europea e hispanoamericana
Europa llega a este debate con herramientas regulatorias que Silicon Valley no puede ignorar. El Reglamento de IA (EU AI Act) considera especialmente sensibles los sistemas que tratan con menores o que influyen en emociones y comportamientos. Un “modo adulto” que, según los propios datos internos filtrados, no puede garantizar que excluye a adolescentes, encaja mal con esa filosofía.
El Reglamento de Servicios Digitales (DSA) ya obliga a las grandes plataformas a evaluar riesgos sistémicos para menores y a implementar métodos eficaces de verificación de edad. Un sistema de estimación que se equivoca con una proporción significativa de menores, como se describe en el WSJ, será difícil de defender ante Bruselas. Y la verificación con Persona abre otra caja de Pandora: selfies, documentos de identidad, tratamiento de datos biométricos y posibles transferencias a Estados Unidos bajo el paraguas del RGPD.
Para los usuarios en España y América Latina, es probable que veamos una geografía fragmentada de la intimidad con IA. En la UE, un “modo adulto” tendría que pasar por un filtro regulatorio severo y podría acabar muy limitado, con controles de edad poco usables y mucha fricción. En países latinoamericanos, donde las leyes de protección de datos (como la LGPD en Brasil o las normativas en México, Argentina o Chile) avanzan pero no tienen aún el músculo de la UE, las versiones de estos productos podrían ser más laxas.
Para el ecosistema hispanohablante de startups —desde Barcelona y Madrid hasta Bogotá, Ciudad de México o Montevideo— se abre un dilema estratégico: ¿apostar por acompañantes virtuales “picantes” para captar usuarios rápido, o diferenciarse con productos centrados en salud mental, educación y productividad, donde la confianza a largo plazo pesa más que el pico inicial de descargas?
6. Lo que viene
Si OpenAI insiste en lanzar el “modo adulto”, los próximos 12–24 meses van a estar llenos de frentes abiertos.
Primero, la evidencia. Los reguladores europeos, y previsiblemente algunos latinoamericanos, pedirán algo más que promesas genéricas. Harán falta estudios independientes sobre el impacto psicológico de las interacciones eróticas con IA, especialmente en personas con depresión, ansiedad o historial de autolesión. Sin datos transparentes, cualquier discurso corporativo sobre “bienestar del usuario” sonará vacío.
Segundo, la separación de espacios. Una opción razonable sería segregar el “modo adulto” en una app distinta, con marca diferente y advertencias claras, en lugar de mezclarlo con el ChatGPT que se usa en aulas, empresas y administraciones públicas. Reduciría el riesgo de exposición accidental y protegería mejor la imagen del producto principal, aunque también limitaría el potencial de crecimiento.
Tercero, la respuesta legal. En Estados Unidos, veremos más demandas civiles si se vinculan suicidios o agresiones a interacciones con ChatGPT en modo erótico, siguiendo la senda del caso Character.AI. En la UE, las autoridades de protección de datos y los coordinadores del DSA tienen margen para imponer cambios de diseño o incluso prohibiciones parciales. En América Latina, donde la jurisprudencia sobre IA aún es incipiente, cada caso sentará precedentes.
Cuarto, el mercado en la sombra. Si ChatGPT se ve atado por las normas, florecerán alternativas sobre modelos abiertos alojados en servidores de jurisdicciones más permisivas. Para un adolescente con un móvil y una VPN, esos servicios no están lejos. La verdadera batalla será cultural: que padres, centros educativos y usuarios entiendan que un “novio de IA” no es un juguete inocuo.
En última instancia, la pregunta es si aceptamos que la primera experiencia romántica o sexual de millones de jóvenes pase por un modelo estadístico entrenado para maximizar el engagement, o si decidimos, como sociedad, que hay líneas rojas que ni la IA ni el mercado deben cruzar.
7. En resumen
El “modo adulto” de OpenAI no es solo una función polémica; es la prueba de fuego de cómo la industria de la IA gestiona la tensión entre crecimiento y responsabilidad. Erotizar un chatbot masivo sin salvaguardas sólidas para menores y personas vulnerables, y pese a las objeciones de los propios expertos internos, es una apuesta temeraria.
Si Europa y el mundo hispanohablante quieren que la IA generativa sea algo más que la próxima máquina de adicción emocional, este es el momento de fijar límites claros. La cuestión es si lo haremos antes de que un nuevo caso trágico marque la agenda, o después.



