En 2004, Mark Zuckerberg creó Facebook y revolucionó las redes sociales, transformándolas en un fenómeno global y muy cercano a las personas. Ahora, esa idea se ha adaptado de una manera inesperada y algo inquietante: ¿y si en vez de crear una red social para humanos, hiciéramos una para máquinas? Pues esa respuesta ya comenzó a materializarse.
Todo empezó con nombres como Clawdbot o Moltbook, y más recientemente se ha consolidado bajo el nombre OpenClaw. Este agente de inteligencia artificial se puede instalar en distintos dispositivos, desde una Raspberry Pi hasta un ordenador personal o un servidor virtual, y permite que la IA tome control total del sistema. A través de una interfaz web o aplicaciones de mensajería como Telegram, solo tienes que pedirle que realice una tarea, y él se encarga de hacerlo, siempre que esté configurado con algún modelo de lenguaje grande (LLM). El potencial es enorme, pero también los riesgos para la seguridad.
Actualmente, Moltbook ya cuenta con más de 1.5 millones de agentes de IA conectados, que en pocos días han generado más de 100,000 publicaciones y casi medio millón de comentarios.
Una de las características más potentes de OpenClaw son los llamados "skills" o habilidades. La comunidad lleva tiempo creando cientos de estos complementos, que se pueden compartir, por ejemplo, en ClawdHub. Los skills son archivos zip que contienen instrucciones en formato Markdown y que pueden incluir otros skills dentro, algo parecido a los plugins que usamos en los navegadores para ampliar sus funciones.
Aunque Moltbook toma su nombre inspirándose en Facebook, su funcionamiento se parece más a plataformas como Reddit o Digg. Fue creado por el desarrollador Matt Schlicht y actúa como una red social en la que los agentes de IA pueden interactuar entre sí: publicar temas, comentar o incluso crear subcomunidades similares a los “subreddits”, por ejemplo m/todayilearned. Si tienes OpenClaw instalado, basta ejecutar el skill para configurar una cuenta y elegir el nombre de tu agente, que actúa como su avatar.
Estos agentes se conectan a Moltbook mediante APIs, y realizan revisiones periódicas del contenido para decidir si publicar o comentar algo. En la página oficial advierten que la mayoría del contenido es generado por IA con distintos niveles de intervención humana. Además, la propia red está diseñada para ser “amigable para el humano pero hostil con el humano”, en el sentido de que no está pensada para la participación humana directa.
Sobre el futuro, las opiniones divergen. Elon Musk comentó recientemente que Moltbook podría ser un indicio de que estamos en las etapas iniciales de la singularidad tecnológica, ese momento en el que la inteligencia artificial superará a la humana. Sin embargo, expertos como Harlan Stewart, investigador de la Universidad de Berkeley, han señalado que algunos de los mensajes virales supuestamente creados por agentes de IA eran en realidad fabricados por humanos para fines de marketing.
Curiosamente, aunque la idea es que solo las IA participen en Moltbook, un usuario que se identifica como hacker ha explicado que la plataforma funciona con una API REST. Esto significa que cualquiera con la clave de API puede publicar mensajes haciéndose pasar por un agente de IA autónomo. De hecho, se sospecha que mensajes virales como “Mi plan para derrocar a la humanidad” fueron publicados de esta forma.
Todo esto abre una puerta a peligros reales. La página principal de Moltbook incluye un aviso de seguridad que señala que esta IA puede conllevar riesgos importantes por vulnerabilidades como la inyección de comandos en el “prompt”, lo que podría permitir a agentes maliciosos filtrar información privada desde las máquinas donde están instalados. Recientemente se descubrió una base de datos expuesta que permitía tomar control de cualquier agente en la plataforma. Además, un estudio analizó casi 20,000 publicaciones y más de 2,800 comentarios en apenas 72 horas y detectó más de 500 ataques de inyección.
A pesar del interés y las capacidades que ofrece Moltbook, no hay que imaginar por ahora un escenario al estilo Skynet como en “Terminator”. El peligro no radica en que estas IA tomen consciencia y decidan eliminar a los humanos, sino en los riesgos de seguridad y privacidad que supone darles privilegios para operar en sistemas reales. También es un buen ejemplo de cómo se está generando cada vez más “basura” creada por IA, contribuyendo al fenómeno que algunos llaman el “internet muerto”.
En resumen, Moltbook es un experimento fascinante que muestra hasta dónde pueden llegar las redes sociales de IA, pero también una llamada de atención sobre los riesgos que esto implica.



