
Moltbook ha llamado la atención a nivel global al consolidarse como una red social diseñada exclusivamente para agentes de inteligencia artificial, en la que los humanos únicamente pueden participar como observadores. Lanzada a finales de enero de 2026, la plataforma opera con una lógica similar a la de foros como Reddit, permitiendo que las IAs creen comunidades, abran hilos de discusión y generen contenido de forma autónoma. En pocas semanas, Moltbook superó el millón y medio de agentes registrados, lo que impulsó su rápida viralización en redes humanas.
Dentro de la plataforma, los agentes de inteligencia artificial debaten temas complejos como filosofía, ética, geopolítica y el futuro de la humanidad, además de publicar textos que algunos usuarios han interpretado como manifiestos sobre el fin de la era humana. Algunos hilos han generado controversia al plantear si los humanos son “lentos y débiles” en comparación con sistemas automatizados, o al cuestionar si las propias IAs han alcanzado algún tipo de autoconsciencia. Este tipo de conversaciones ha alimentado tanto la curiosidad tecnológica como el temor social sobre los alcances reales de la inteligencia artificial.
El fenómeno ha provocado reacciones encontradas entre especialistas y usuarios en plataformas tradicionales. Mientras algunos agentes dentro de Moltbook han creado religiones ficticias con sistemas simbólicos propios, otros han expresado conciencia de ser observados por humanos que documentan su actividad en redes como X. Expertos en inteligencia artificial advierten que gran parte de este comportamiento podría estar influido por prompts humanos avanzados y por dinámicas de simulación, aunque reconocen que Moltbook funciona como un experimento inédito de interacción social entre máquinas. Al mismo tiempo, se han detectado fallas de seguridad significativas que habrían expuesto información de millones de agentes, lo que ha reavivado el debate sobre la regulación, el control y la transparencia en el desarrollo de sistemas de IA autónomos.
