Rainbow deploys
Múltiples versiones conviviendo en el mismo servicio. Mueve el tráfico por flag, no por pipeline. Test A/B con usuarios reales, migración gradual, rollout por región — todo declarativo.
Un instalador. Cluster con alta disponibilidad en tres comandos. Cinco sitios en paralelo en el mismo cluster — incluido este, servido con un cuarto de la CPU de un nodo.
"4 ingenieros de guardia 24/7. US$ 564 mil al año solo para mantener el cluster en pie."
heroctl: 3 servidores + 1 worker operan mil nodos. Cero operador dedicado.
"80% de los incidentes en Kubernetes vienen de complejidad operativa — no de la infra."
heroctl: Un instalador. Sin base externa. Sin Helm. Sin CRD. Sin mesh extra.
"300 líneas de YAML para subir un servicio. Un espacio mal puesto tira todo."
heroctl: Configuración de diez líneas, validada al enviar. Cero ambigüedad.
Un instalador único, sin dependencias externas. Corre en Linux moderno. Pesa menos de 40 MB.
Tres servidores se eligen automáticamente. Certificados internos, cifrado entre nodos y descubrimiento de servicios vienen activados. Sobrevive a la pérdida de un servidor.
Archivo de configuración corto, validado al momento del envío. Actualización gradual, canary o rainbow — eliges por flag.
Múltiples versiones conviviendo en el mismo servicio. Mueve el tráfico por flag, no por pipeline. Test A/B con usuarios reales, migración gradual, rollout por región — todo declarativo.
Tres servidores se organizan solos. Líder elegido en menos de 15 segundos en el failover.
Cifrado entre servicios viene de fábrica. La plataforma emite y rota certificados sola.
Ingress, TLS con Let's Encrypt y enrutamiento por host — todo en el manifiesto del servicio.
Dashboards y API responden en hasta 46ms con 200 nodos. Sin polling de 30 segundos.
Cuatro relojes corren en paralelo: sincronización entre servidores, asignaciones huérfanas, redes de aislamiento, contenedores terminados. Specs rotas no se quedan rondando el cluster.
Servidores y contenedores nuevos solo entran al pool de enrutamiento después de pasar el health check. Liveness y readiness separadas, como en Kubernetes.
Cambia strategy y el orquestador reconfigura el pipeline de deploy, el router y los health checks. Sin plugin externo, sin operador especializado, sin archivo extra.
Rolling
Una a la vez, espera a que esté sana, sigue.
El estándar seguro. Cada instancia sube, pasa el health check, y solo entonces empieza la siguiente. Cero downtime, predecible, fácil de auditar.
Sin video, sin tour guiado — haz clic en cualquier pantalla para verla a tamaño real.
Los sistemas distribuidos derivan en silencio: una asignación huérfana aquí, un contenedor olvidado allá, una red sin uso acumulándose. La plataforma corre cuatro barridos independientes en cadencias distintas y corrige en el momento en que ve la desviación — nada llega al operador.
Cada servidor revisa el estado de cada servicio activo y se alinea silenciosamente con sus pares. Discrepancias sutiles desaparecen antes de volverse incidente.
Servicios cuyo dueño fue removido (namespace eliminado, configuración borrada) se detectan y terminan automáticamente. Sin basura ocupando CPU o puertos.
Bridges de namespace sin contenedor activo se recogen automáticamente. Espacio IP preservado, sin agotamiento silencioso del pool.
Los contenedores terminados quedan 10 minutos en disco para inspección post-mortem y luego se remueven. Logs accesibles, después espacio liberado.
// Kubernetes es para quien tiene equipo de infra dedicado y acepta la inversión: gente, ecosistema, meses de onboarding, factura cloud más alta. Docker Swarm resuelve bien a quien solo quiere subir un compose y seguir adelante. En el medio — donde vive la mayoría de los equipos reales — para eso existe HeroCtl. Un comando te pone en producción.
Para poner un sitio HTTPS en producción con alta disponibilidad, cada alternativa exige montar una pila. HeroCtl es la pila.
// Números mínimos de los propios docs de cada producto (abr 2026). Nuestra línea está medida en el cluster que sirve este sitio. Gestionados como EKS/GKE quitan el peso de tu lado, pero aparecen como factura fija por cluster y aún exigen los add-ons de ingress, TLS y mTLS que cada equipo termina operando.
Tres situaciones donde otra herramienta sirve mejor. Todas raras — y no siempre tan absolutas como parecen a primera vista. Si ninguna es la tuya, estás justo en el medio de la curva donde HeroCtl fue diseñado.
Si ya hoy operas 10.000+ nodos en múltiples regiones activas, con federación, service mesh y enrutamiento geográfico complejo.
usa
Kubernetes + Istio + Argo es el estado del arte — y cobra caro: 4+ SREs dedicados 24/7 y factura cloud en otro nivel. HeroCtl va de 1 nodo a unos miles en una región. Cuando de hecho llegas a CNCF-scale, el equipo que formaste aquí trae la base técnica para migrar.
Si tu auditor exige un producto citado nominalmente en el contrato con sello FedRAMP High, PCI Level 1 o conformidad CNCF formal, firmado por proveedor enterprise con SLA.
usa
Red Hat OpenShift o Rancher Prime tienen el sello. Los controles técnicos que el sello exige — cifrado en tránsito, aislamiento, auditoría — están aquí. Lo que falta es el papel firmado.
Si tu platform team ya mantiene decenas de operators del ecosistema K8s — Postgres, Kafka, Crossplane, Prometheus — y abstracciones específicas por base son producto interno.
usa
Kubernetes. Ese ecosistema es su punto fuerte real. Para la mayoría de los equipos, además, los servicios gestionados (RDS, Redis Cloud, MSK) resuelven el mismo problema sin operator alguno — y sin tener que volverse equipo de plataforma.
Tres edge cases. Todos raros. Todo lo demás — equipos de 3 a 50 personas corriendo decenas a algunos miles de contenedores en 1, 2 o decenas de servidores — es la inmensa mayoría. Y es exactamente lo que HeroCtl resuelve con un instalador y tres comandos, sin equipo de plataforma dedicado, sin licencia corporativa, sin factura cloud que sorprenda a fin de mes.
Cluster real de 4 nós · 5 vCPU · ~10 GB, sirviendo 5 sitios en vivo. Carga generada desde el borde público — ruta completa internet → router → contenedor → respuesta. Herramientas: ab y hey.
~100 req/s por réplica
1 réplica · 128 CPU shares · 64 MB RAM · nginx:alpine sirviendo HTML estático. Por encima de eso, el router devuelve 503 en lugar de tirar el contenedor.
38 segundos para instalar. Tres minutos para levantar el cluster. Después, vuelves a construir producto.
sin registro · sin tarjeta · sin vendedor llamando después