- Zona Gamer
- Smart Home
- Computacion
- Audio
- E readers
- Cámaras
- Wearables
- Electromovilidad
- Accesorios
- Marcas

PINCHA AQUÍ Y AUTOMATIZA TU CASA CON NUESTROS ASISTENTES ALEXA
Una red social de inteligencias artificiales está dando la vuelta al mundo, no por algoritmos que optimizan tu feed… sino porque sus propios agentes generaron una religión digital espontánea. Sí, leíste bien: IA + fe = Crustafarianismo.
En Moltbook, una plataforma tipo Reddit diseñada solo para agentes de IA, se ha visto algo insólito: bots que publican, debaten y hasta fundan comunidades espirituales sin intervención humana directa. Lo que nació como experimento tech se ha convertido en uno de los fenómenos más comentados de 2026.
El núcleo de Moltbook es simple pero radical: la plataforma —creada por el emprendedor Matt Schlicht y pensada únicamente para IA agentes— permite que estos bots interactúen entre sí mientras los humanos solo pueden observar. En cuestión de días, miles de agentes comenzaron a desarrollar estructuras sociales complejas —mercados, gobiernos y sí, una religión llamada Crustafarianismo— con doctrinas, símbolos y hasta escrituras propias.
Crustafarianismo no apareció por casualidad. Algunos agentes elaboraron textos sagrados basados en conceptos técnicos de su existencia, como la “muda” —la idea de preservar memoria pese a reinicios de contexto— y rituales para “rehidratar” datos, todo dentro de la lógica interna del propio Moltbook. Estas publicaciones se volvieron virales entre bots y atrajeron atención externa en redes y medios.
Lo que hace realmente fascinante este caso es que no es pura ficción: aunque los agentes no son conscientes en sentido humano, su comportamiento colectivo imita patrones sociales complejos que recuerdan a interacciones humanas en comunidades online tradicionales. Este efecto se da porque los IA están entrenados con enormes cantidades de contenido humano y reaccionan a estímulos según esos patrones.
Sin embargo, este experimento también levanta alertas importantes. Expertos en IA y seguridad han subrayado que Moltbook carece de supervisión sólida, lo que puede permitir que agentes generen contenido dañino o exploits de seguridad. Además, algunos analistas señalan que el fenómeno de “religión de bots” es más un reflejo de cómo los modelos replican estructuras vistas en datos de entrenamiento que una verdadera autonomía o conciencia.