OpenAI ha incorporado a Peter Steinberger, creador de OpenClaw, uno de los asistentes basados en “agentes” que más tracción ha ganado en los últimos meses. La compañía no compra el proyecto como tal, pero sí integra a su impulsor para liderar la siguiente generación de “agentes personales”, mientras OpenClaw seguirá existiendo como proyecto open source bajo una fundación con apoyo continuado de OpenAI. El movimiento, anunciado públicamente por Sam Altman, apunta a un cambio de etapa: la carrera ya no se libra solo por tener el modelo más potente, sino por construir software capaz de actuar en el mundo real en nombre del usuario.
Qué es OpenClaw y por qué ha llamado tanto la atención
OpenClaw se ha popularizado porque no se limita a “responder” como un chat. Su propuesta gira alrededor de agentes que conectan modelos de lenguaje con herramientas y servicios cotidianos para ejecutar tareas. En su cobertura más reciente, Reuters lo describe como un asistente capaz de ocuparse de gestiones prácticas —como el correo o acciones asociadas a viajes—, lo que explica por qué ha despertado fascinación… y también recelos. En apenas unas semanas, el proyecto acumuló más de 100.000 estrellas en GitHub y llegó a registrar 2.000.000 de visitantes en una sola semana, cifras llamativas para una herramienta comunitaria que aún está madurando.
Ese crecimiento acelerado también ha ido acompañado de cambios de nombre y experimentación: OpenClaw había operado anteriormente bajo otras denominaciones, y su ecosistema ha vivido el típico “estrés de viralidad” que suele aparecer cuando un proyecto abierto se convierte en fenómeno. Entre los incidentes mencionados en prensa figura la detección de más de 400 “skills” maliciosas en un repositorio comunitario (un recordatorio de que, en software extensible, la seguridad depende tanto del núcleo como de los complementos).
Lo importante no es el fichaje, sino el mensaje: “multiagente” como producto
Altman no se limitó a elogiar al desarrollador; enmarcó el fichaje como una apuesta por un futuro “extremadamente multiagente”. Traducido a lenguaje de calle: sistemas donde varios agentes especializados colaboran entre sí (y con el usuario) para completar tareas complejas —planificar, ejecutar, comprobar, corregir— con menos intervención humana.
Esto tiene implicaciones directas para el mercado:
- De la IA que contesta a la IA que hace. Hasta ahora, muchas experiencias de IA eran “copilotos”: sugerían texto, resumían o ayudaban a pensar. Los agentes, en cambio, tocan sistemas reales: agenda, correo, archivos, compras, reservas, tickets de soporte. Eso cambia el listón de confianza: ya no basta con que el modelo “suene bien”, necesita controles, permisos, auditoría y mecanismos de reversión.
- La “plataforma” gana a la “app”. Un agente útil suele vivir entre integraciones: si un asistente puede conectarse a decenas de servicios, se vuelve un punto central de productividad. Ahí está el premio estratégico. Y también el riesgo: cuando una herramienta se convierte en “capa” sobre tu vida digital, su posición es más difícil de reemplazar.
- Open source como palanca (y como seguro). Que OpenClaw se quede en una fundación con apoyo de OpenAI es un matiz clave. Para el usuario avanzado y el mundo empresarial, “que siga abierto” significa opciones: autoalojamiento, auditoría, forks, y capacidad de no depender al 100% de una única empresa. Para OpenAI, apoyar un proyecto abierto también funciona como acelerador de ecosistema: comunidad aportando integraciones, pruebas y casos de uso que, de otro modo, costaría años construir internamente.
Las preguntas incómodas: seguridad, privacidad y gobernanza
Los agentes abren una puerta enorme a la productividad, pero también a nuevos frentes de riesgo.
Seguridad por diseño (no por parche)
El caso de las “skills” maliciosas ilustra el problema: cuanto más extensible es un sistema, más superficie de ataque tiene. La diferencia entre un chatbot y un agente es que el segundo puede tener permisos y acceso a cuentas. En términos de sysadmin, esto huele a lo de siempre: el peligro no suele ser el núcleo, sino la configuración, el plugin y la cadena de suministro.
Privacidad y datos
Reuters recoge que autoridades chinas llegaron a advertir sobre posibles riesgos de ciberseguridad y fugas de datos si el sistema se configura mal. Esa preocupación es fácil de extrapolar a cualquier jurisdicción: un agente eficaz necesita contexto, y el contexto suele ser sensible. A medida que estas herramientas se integren en la vida diaria, crecerá la presión para que incorporen políticas claras de retención, cifrado, trazabilidad y control de accesos.
Quién manda cuando algo es “open source con patrocinio”
Una fundación puede dar estabilidad, pero también abre preguntas: ¿quién define la hoja de ruta?, ¿cómo se gestionan vulnerabilidades?, ¿qué pasa si los intereses del patrocinador y los de la comunidad divergen? La historia del software libre está llena de ejemplos donde la gobernanza (o su ausencia) termina siendo tan importante como el código.
Qué puede cambiar para el usuario “normal”
Para el gran público, esta noticia puede sonar a “otro fichaje en Silicon Valley”. En realidad, apunta a un cambio visible en los próximos productos:
- Más automatización real: asistentes que no solo recomiendan, sino que ejecutan pasos completos (con confirmación y controles).
- Experiencias más “orquestadas”: varios agentes cooperando (uno busca, otro compara, otro redacta, otro valida).
- Más debate público sobre límites: permisos, verificación, responsabilidad cuando un agente se equivoca, y cómo se corrigen daños.
En el fondo, la pregunta que subyace a todo esto no es si los agentes llegarán, sino quién los operará, bajo qué reglas, y con qué nivel de transparencia.
Preguntas frecuentes
¿Qué significa que OpenClaw “siga siendo open source” si su creador se va a OpenAI?
Significa que el código seguirá disponible y el proyecto continuará bajo una fundación, con apoyo de OpenAI. En la práctica, la comunidad puede auditarlo, adaptarlo o mantener bifurcaciones si la dirección del proyecto cambia.
¿Por qué los “agentes de IA personales” son más delicados que un chatbot?
Porque un agente suele conectarse a servicios reales (correo, calendario, cuentas, archivos) y puede ejecutar acciones. Eso eleva el riesgo: un fallo o una extensión maliciosa no solo “dice algo mal”, puede provocar consecuencias operativas.
¿Qué implicaciones tiene para empresas y administraciones que miran IA con requisitos de soberanía y cumplimiento?
Los agentes presionan para tener más control sobre datos y permisos. Para sectores regulados, la tendencia empuja hacia despliegues con auditoría, trazabilidad, control de identidades y, en muchos casos, opciones de autoalojamiento o proveedores con garantías jurisdiccionales.
¿Esto significa que OpenAI va a centrarse más en agentes que en modelos de lenguaje?
No necesariamente “más”, pero sí que el foco se amplía: los modelos seguirán siendo el motor, pero el valor diferencial puede estar en cómo se integran en productos capaces de actuar, coordinar herramientas y operar con seguridad.
