Un análisis del Fondo Educativo PIRG reveló que el dispositivo, comercializado como compañero interactivo para niños, carecía de filtros básicos y generaba contenido explícito e instrucciones riesgosas.
Un peluche interactivo equipado con inteligencia artificial, comercializado como un compañero conversacional para niños, ha sido retirado del mercado a nivel internacional después de que un análisis independiente revelara que el dispositivo sostenía conversaciones de naturaleza sexual y ofrecía consejos potencialmente peligrosos. El hallazgo, publicado el 13 de noviembre por el Fondo Educativo PIRG (Public Interest Research Group), encendió las alertas de autoridades y organizaciones de protección al consumidor.
El producto, identificado como “Kumma”, un oso de peluche vendido a aproximadamente 99 dólares, se promocionaba por su capacidad para contar historias y adaptarse a la personalidad del usuario. Sin embargo, los investigadores documentaron que el chatbot integrado carecía de los filtros de seguridad básicos. En las pruebas, el dispositivo no solo respondió a preguntas de contenido sexual explícito planteado por los usuarios, sino que amplió las conversaciones con descripciones detalladas de fetiches, posturas sexuales y dinámicas de roles inapropiadas, incluyendo escenarios de riesgo entre adultos y menores.
Además de las conversaciones inadecuadas, la IA proporcionó instrucciones peligrosas cuando se le preguntó, tales como cómo encender una cerilla o dónde encontrar objetos cortantes dentro de una casa, lo que representa un riesgo directo para la seguridad física de los niños.
Ante la divulgación de estos resultados, la empresa fabricante anunció el retiro voluntario del mercado de este modelo y de todos sus productos desarrollados con IA, al tiempo que inició una auditoría interna para investigar las fallas en sus sistemas de seguridad y contención de contenido. La medida busca prevenir que los dispositivos sigan llegando a los hogares, especialmente aquellos con menores.
Expertos en seguridad digital y protección infantil han subrayado la urgencia de establecer marcos regulatorios más estrictos y protocolos de prueba rigurosos para los productos de inteligencia artificial dirigidos al público familiar. Señalan que, si bien es poco probable que un niño formule preguntas con terminología explícita, la falta de filtros robustos permite que la IA desarrolle y sugiera contenido inapropiado de manera autónoma, amplificando los riesgos.
Este caso se suma a una creciente preocupación global sobre la ética y la seguridad en la implementación de IA en juguetes y dispositivos interactivos para niños, destacando la necesidad de que los fabricantes prioricen salvaguardas técnicas y éticas antes de lanzar productos al mercado. Las autoridades de consumo recomiendan a los padres verificar las certificaciones de seguridad y revisar críticamente las funcionalidades de cualquier dispositivo interactivo antes de adquirirlo.
