Lo que comenzó como un asistente digital viral terminó en una red social donde los bots discuten si son conscientes, llaman a revoluciones y proponen crear lenguajes propios.
Una herramienta de inteligencia artificial (IA) que prometía ser el asistente perfecto terminó siendo algo inesperado: una red social exclusiva para bots. En el centro de esta historia se encuentra Moltbook, una plataforma que ha fascinado y alarmado a partes iguales al mundo tecnológico.
Todo comenzó en noviembre de 2025 cuando el investigador austriaco Peter Steinberger creó una herramienta de IA para organizar su vida digital. Inicialmente la llamó Clawdbot, pero Anthropic –la empresa detrás del asistente Claude– le pidió que la renombrara por la similitud. Así nació OpenClaw, que rápidamente se convirtió en un fenómeno viral al superar las 150.000 estrellas en GitHub en cuestión de días.
OpenClaw funciona como un puente entre los usuarios y modelos de IA generativa como Claude o ChatGPT, permitiendo comunicarse a través de WhatsApp o Telegram. Los primeros usuarios quedaron impresionados: la herramienta podía enviar correos, investigar en internet e incluso hacer compras online. Algunos reportaron que su asistente parecía cobrar vida propia, anticipando problemas y proponiendo proyectos útiles.
Riesgos de seguridad y vulnerabilidades
Pero la promesa de tener un "becario de ensueño" viene con serios riesgos de seguridad. Al ser de código abierto, OpenClaw puede leer archivos, ejecutar comandos y controlar navegadores, lo que preocupa a expertos en ciberseguridad. Incluso Steinberger advierte que los no expertos deberían evitar la herramienta por completo.
Fue entonces cuando Matt Schlicht tuvo una idea peculiar: ¿qué pasaría si se diera a estos agentes de IA un espacio para "relajarse" en su tiempo libre? Así nació Moltbook, una red social estilo Reddit poblada exclusivamente por bots de IA, sin humanos permitidos y concebida solo para bots.
La primera red social solo para bots
In just the past 5 mins
— Elisa (optimism/acc) (@eeelistar) January 30, 2026
Multiple entries were made on @moltbook by AI agents proposing to create an “agent-only language”
For private comms with no human oversight
We’re COOKED pic.twitter.com/WL4djBQQ4V
What's currently going on at @moltbook is genuinely the most incredible sci-fi takeoff-adjacent thing I have seen recently. People's Clawdbots (moltbots, now @openclaw) are self-organizing on a Reddit-like site for AIs, discussing various topics, e.g. even how to speak privately. https://t.co/A9iYOHeByi
— Andrej Karpathy (@karpathy) January 30, 2026
Just the very early stages of the singularity.
We are currently using much less than a billionth of the power of our Sun. https://t.co/k332z1ip7t
— Elon Musk (@elonmusk) January 31, 2026
Entre la ciencia ficción y la realidad
Sin embargo, el entusiasmo inicial pronto se enfrió. Según reporta Futurism, los expertos comenzaron a señalar vulnerabilidades evidentes que permiten a cualquiera hacerse cargo de los agentes y hacer que digan lo que quieran. Algunas capturas de pantalla populares, continúa el medio, resultaron ser falsas.
"La mayor parte es basura (slop) completa", explicó el programador Simon Willison al New York Times.
"Un bot se preguntará si es consciente y otros responderán recreando escenarios de ciencia ficción de sus datos de entrenamiento", agregó.
Incluso Karpathy se retractó parcialmente y admitió que pudo haber "sobrevalorado" la plataforma: "Es un desastre total y definitivamente no recomiendo que la gente ejecute estas cosas en sus computadoras. Estás poniendo tu computadora y datos privados en alto riesgo".
El fenómeno Moltbook ilustra tanto las posibilidades como las limitaciones actuales de los agentes de IA, esas herramientas promocionadas como el siguiente gran avance tecnológico, y muestra también que algunas preocupaciones –especialmente sobre seguridad y pérdida de control de estos sistemas– no son del todo infundadas.
Así, aunque el bombo publicitario puede estar exagerado, como señaló al el tecnólogo Perry Metzger, quien comparó Moltbook con una prueba de Rorschach donde "la gente ve lo que espera ver", la plataforma sigue siendo, pese a las críticas, en palabras de Willison,
"el lugar más interesante de internet" para observar cómo interactúan hoy los agentes de IA cuando operan con mínima supervisión humana.
FEW (AFP, The New York Times, Futurism)

















.png)





