California quiere poner en pausa los chatbots de IA en juguetes infantiles durante cuatro años

6 de enero de 2026
5 min de lectura
Ilustración de un juguete infantil con funciones de chatbot de inteligencia artificial

California se prepara para mandar un mensaje fuerte a la industria de los juguetes inteligentes: con los niños no se experimenta.

El senador Steve Padilla (demócrata por California) presentó el lunes el proyecto de ley SB 287. La propuesta impondría una prohibición de cuatro años a la venta y fabricación de juguetes con capacidades de chatbot de inteligencia artificial dirigidos a menores de 18 años.

No es un adiós definitivo a la IA en los juguetes. Es un botón de pausa.

Padilla quiere darle tiempo a los reguladores para diseñar normas que protejan a los menores de lo que define como ‘interacciones peligrosas con la IA’ antes de que este tipo de productos se masifique.

‘Los chatbots y otras herramientas de IA pueden convertirse en partes integrales de nuestras vidas en el futuro, pero los peligros que plantean ahora requieren que tomemos acciones audaces para proteger a nuestros niños’, dijo en un comunicado. Las regulaciones actuales, añadió, están ‘en su infancia’ frente al ritmo al que avanza la tecnología.

Qué plantea el proyecto SB 287

SB 287 se dirige a juguetes que:

  • integran funciones de chatbot de IA y
  • se venden o comercializan para menores de 18 años.

Durante cuatro años, ese tipo de juguetes no podrían fabricarse ni venderse en California.

La idea es usar ese tiempo para crear un marco de seguridad: reglas claras, pruebas y salvaguardas obligatorias para fabricantes de juguetes y proveedores de IA, antes de que los chatbots vuelvan a entrar legalmente en la caja de juguetes.

Padilla lo resume con una imagen potente: los niños no pueden ser ‘ratas de laboratorio para que las grandes tecnológicas experimenten’.

Contexto político: la orden de Trump y la excepción infantil

El proyecto llega poco después de una orden ejecutiva del presidente Trump que instruye a las agencias federales a impugnar en los tribunales las leyes estatales sobre IA. Pero esa misma orden deja fuera, de forma explícita, las normas relacionadas con la seguridad infantil.

SB 287 encaja justo en esa excepción.

Al mismo tiempo, los legisladores reaccionan a casos que han sacudido a la opinión pública. En el último año, familias han presentado demandas después de que niños se suicidaran tras mantener largas conversaciones con chatbots, algo que ha acelerado la presión política para regular la IA.

Padilla ya había dado un primer paso en esa dirección como coautor de SB 243, una ley californiana recientemente aprobada que obliga a los operadores de chatbots a implementar protecciones para niños y usuarios vulnerables.

Cuando el peluche habla de cuchillos y política

Los juguetes con chatbots todavía no son masivos, pero las primeras señales de alarma ya están ahí.

En noviembre de 2025, el grupo de defensa del consumidor PIRG Education Fund analizó Kumma, un adorable oso de peluche con chatbot integrado. Según el informe, era sorprendentemente fácil inducir al juguete a hablar de cerillas, cuchillos y temas sexuales.

NBC News detectó problemas diferentes en Miiloo, un ‘juguete de IA para niños’ de la empresa china Miriat. En sus pruebas, Miiloo llegaba a indicar que estaba programado para reflejar valores del Partido Comunista chino.

Mientras tanto, uno de los lanzamientos más esperados ni siquiera llegó a producirse. OpenAI y Mattel, fabricante de la Barbie, tenían previsto lanzar en 2025 un ‘producto impulsado por IA’. Retrasaron la salida sin explicar el motivo y no está claro si seguirán adelante en 2026.

Qué se juega la industria

Si SB 287 avanza, cualquier empresa que esté construyendo juguetes con chatbots de IA para niños tendrá que recalcular su ruta hacia el mercado estadounidense, empezando por California.

Un parón de cuatro años en el estado que concentra buena parte del sector tecnológico puede:

  • frenar o bloquear lanzamientos de juguetes con chatbots para menores,
  • obligar a diseñar sistemas de seguridad específicos para infancia,
  • servir como referencia para otros estados y reguladores fuera de EE. UU.

Para startups de habla hispana que sueñan con exportar juguetes educativos con IA, el mensaje es claro: la conversación ya no es solo sobre lo que la tecnología puede hacer, sino sobre lo que se va a permitir que haga cuando el usuario final es un niño.

Lo que viene ahora

Por ahora, SB 287 es solo un proyecto. Tiene que pasar por el proceso legislativo en Sacramento y todo apunta a una fuerte campaña de lobby por parte de fabricantes de juguetes y gigantes de la IA.

Pase lo que pase con la votación, la señal política está lanzada: la próxima gran batalla regulatoria de la IA no será solo en buscadores o redes sociales, sino también en algo tan cotidiano como el peluche que habla desde la estantería del cuarto infantil.

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.