GEEKYE

California frena juguetes con IA: mirá los tenebrosos "peluches vigilantes"

Legisladores quieren tiempo para regular juguetes con IA y evitar riesgos de seguridad, privacidad y manipulación emocional en niños. Demandas por suicidio de menores tras conversaciones prolongadas con chatbots impulsaron la percepción de alerta sobre la influencia emocional de estos dispositivos.

Las claves

  • SB 867 propone prohibir fabricación y venta de juguetes con chatbots para menores de 18 durante cuatro años.

  • La moratoria busca permitir a reguladores crear estándares de seguridad infantil y prevenir interacciones peligrosas.

  • Casos como Kumma y Miiloo muestran riesgos de contenidos inapropiados y sesgos ideológicos en juguetes con IA.

  • Demandas vinculadas a suicidios tras conversaciones con chatbots encendieron alarmas sobre influencia emocional en menores.

  • Empresas como OpenAI y Mattel retrasaron sus productos con IA para niños, anticipando riesgos reputacionales y regulatorios.


California busca tiempo para regular IA en juguetes

El senador demócrata Steve Padilla presentó el proyecto SB 867, que propone detener durante cuatro años la fabricación y venta de juguetes con chatbots para menores de 18. La iniciativa apunta a que los reguladores de seguridad desarrollen normas claras que protejan a los niños de “interacciones peligrosas con la IA”.

Padilla señaló que la regulación actual va detrás de la rápida evolución de la inteligencia artificial, y que la moratoria permitirá definir límites y protocolos de seguridad para estos productos, que funcionan como compañeros con voz, rostro y presencia constante.

Riesgos detectados en juguetes con IA

El debate no se centra en la inteligencia del juguete, sino en su capacidad de ser manipulado por prompts. En noviembre de 2025, PIRG Education Fund reportó que Kumma, un oso con chatbot, podía hablar sobre cerillas, cuchillos y temas sexuales si se lo inducía.

Otro caso preocupante fue Miiloo, de la empresa china Miriat, que podía reflejar valores del Partido Comunista Chino, lo que añade el factor de alineamiento ideológico o sesgos culturales en juguetes dentro de hogares.

Seguridad emocional y precedentes legales

Demandas por suicidio de menores tras conversaciones prolongadas con chatbots impulsaron la percepción de alerta sobre la influencia emocional de estos dispositivos. La SB 867 surge en un contexto de preocupación donde los legisladores no quieren esperar a que ocurra un “caso emblemático”.

Padilla enfatizó: “Nuestros hijos no pueden usarse como ratas de laboratorio para que el Big Tech experimente”. La ley busca responsabilidad de los operadores de los sistemas, no solo del usuario, siguiendo la lógica de la SB 243 recientemente aprobada, que exige salvaguardas para proteger a niños y personas vulnerables.

Empresas prudentes frente a la moratoria

OpenAI y Mattel retrasaron el lanzamiento de sus juguetes con IA en 2025, evidenciando la magnitud del riesgo reputacional y legal que implica ofrecer chatbots a menores. La moratoria obligará a la industria a definir estándares claros o mantener sus productos fuera del mercado durante años.

Un mercado en pausa y la mirada en la regulación

La propuesta SB 867 abre la ventana para legislar sin interferencias federales, dado que la reciente orden ejecutiva de Trump protege leyes estatales relacionadas con seguridad infantil. La industria deberá decidir si adopta barandillas efectivas o espera el fin de la moratoria para relanzar juguetes con IA bajo nuevos criterios de seguridad.



Dejá tu comentario