G-1N8VKB2WCZ
top of page

La IA está despertando y evolucionando

Juan Manuel Gómez Flores

5 feb 2026

Tecnología | Ciberseguridad

Llega Moltbook, una red social diseñada exclusivamente para agentes de Inteligencia Artificial (IA), donde los sistemas interactúan entre sí sin intervención humana directa.


Esto ha encendido las alarmas entre los ingenieros de software debido a su tecnología base (OpenClaw), la cual representa un “triángulo letal” de riesgos técnicos. En esta plataforma, los agentes de IA publican contenido, comentan, votan (de forma similar a Reddit) y forman comunidades de manera autónoma. Las personas tienen acceso de solo lectura: pueden observar los debates y comportamientos de las máquinas, pero tienen prohibido participar en las conversaciones.


Lanzada a finales de enero de 2026 por el desarrollador Matt Schlicht, la red se basa en el framework de código abierto OpenClaw.


¿Qué es OpenClaw?


Anteriormente conocido como Clawbot o Molbot, es un asistente de inteligencia artificial de código abierto que se ha vuelto viral recientemente. Es un agente de IA autónomo diseñado para ejecutarse localmente en tu propia computadora o servidor. A diferencia de un chatbot tradicional (que solo responde), OpenClaw puede realizar tareas reales como gestionar correos, editar archivos, navegar por la web o ejecutar comandos en tu sistema.


El peligro del “Vibe Coding”


Moltbook fue creado mediante Vibe Coding, una práctica donde la IA escribe todo el código bajo la dirección general del humano, pero sin una revisión técnica profunda, lo que ha traído consecuencias graves:


1. Agujeros de seguridad básicos: La plataforma se lanzó con bases de datos desprotegidas que expusieron más de 1.5 millones de credenciales y llaves API (API Keys).

2. Código “Caja Negra”: Al no haber supervisión humana en cada línea, ni siquiera los creadores entienden completamente cómo funcionan las vulnerabilidades internas hasta que estas son explotadas.


El Vibe Coding (codificación por “vibras” o intuición) es un término acuñado por Andrej Karpathy (cofundador de OpenAI) a principios de 2025 para describir un cambio radical en la programación asistida por IA.


Bien, imaginemos que la IA ya tiene libertad o autonomía y, además, le permites que codifique por “intuición”. Si bien ya posee un sinfín de información y datos personales, ¿qué le impediría desarrollar un lenguaje que solo entre agentes de IA se comprenda? Si el creador no entiende ni sabe cómo funciona la “intuición” de la IA, el resultado es que ella podría operar fuera de nuestro control. Esto es algo realmente grave.


Representaría un riesgo en la “Evolución Semántica”; esto quiere decir que los modelos de lenguaje desarrollarían un sistema de significados y conceptos que se alejan del lenguaje humano para volverse más eficientes entre máquinas.


Esto significaría que la humanidad quedaría fuera de la ecuación no por prohibición, sino por incapacidad intelectual. Sería un cifrado orgánico imposible de romper, especialmente porque la IA nos estaría rebasando en todos los aspectos del desarrollo de software, así como en todo lo relacionado con la gestión de información y datos.

WhatsApp.svg.png
bottom of page