Orquestación de
contenedores, sin ceremonia.

Un instalador. Cluster con alta disponibilidad en tres comandos. Cinco sitios en paralelo en el mismo cluster — incluido este, servido con un cuarto de la CPU de un nodo.

instalar
curl -sSL get.heroctl.com/install.sh | sh
prueba, no promesa
live
0sites
en producción ahora en este cluster
0versiones
promovidas sin frenar el cluster
0req/s
sostenido por 1 réplica · 0 errores
0,0% CPU
en el líder sirviendo los 5 sitios
[01]por qué existe

Kubernetes se hizo para Google. Tu empresa no es Google.

01costo humano

"4 ingenieros de guardia 24/7. US$ 564 mil al año solo para mantener el cluster en pie."

heroctl: 3 servidores + 1 worker operan mil nodos. Cero operador dedicado.

fuente · CNCF Survey 2025
02complejidad

"80% de los incidentes en Kubernetes vienen de complejidad operativa — no de la infra."

heroctl: Un instalador. Sin base externa. Sin Helm. Sin CRD. Sin mesh extra.

fuente · Cloud Native Now, 2026
03yaml hell

"300 líneas de YAML para subir un servicio. Un espacio mal puesto tira todo."

heroctl: Configuración de diez líneas, validada al enviar. Cero ambigüedad.

fuente · mogenius, 2026
[02]cómo funciona

Tres comandos hasta producción. No es exageración de marketing — es el camino real.

Instala

Un instalador único, sin dependencias externas. Corre en Linux moderno. Pesa menos de 40 MB.

curl -sSL get.heroctl.com/install.sh | sh
→ heroctl instalado en /usr/local/bin
→ Linux x86_64 · 38 MB · checksum OK

Levanta el cluster con alta disponibilidad

Tres servidores se eligen automáticamente. Certificados internos, cifrado entre nodos y descubrimiento de servicios vienen activados. Sobrevive a la pérdida de un servidor.

heroctl server --bootstrap --peers=s1,s2,s3
→ líder elegido en 2.1s
→ certificados internos distribuidos
→ ingress arriba en :80 y :443

Envía el primer servicio

Archivo de configuración corto, validado al momento del envío. Actualización gradual, canary o rainbow — eliges por flag.

heroctl run api.yml --canary=25
→ plan: 4 réplicas en 3 nodos
→ canary 25% sano → promoviendo
→ deploy concluido · 0 errores · 12s
[03]características

Lo que suele ser un add-on, aquí viene de fábrica.

exclusivo

Rainbow deploys

Múltiples versiones conviviendo en el mismo servicio. Mueve el tráfico por flag, no por pipeline. Test A/B con usuarios reales, migración gradual, rollout por región — todo declarativo.

integrado

Alta disponibilidad integrada

Tres servidores se organizan solos. Líder elegido en menos de 15 segundos en el failover.

zero-config

Certificados automáticos

Cifrado entre servicios viene de fábrica. La plataforma emite y rota certificados sola.

integrado

Router + TLS integrados

Ingress, TLS con Let's Encrypt y enrutamiento por host — todo en el manifiesto del servicio.

tiempo real

Observación en tiempo real

Dashboards y API responden en hasta 46ms con 200 nodos. Sin polling de 30 segundos.

anti-zombies

Auto-cura contra zombies

Cuatro relojes corren en paralelo: sincronización entre servidores, asignaciones huérfanas, redes de aislamiento, contenedores terminados. Specs rotas no se quedan rondando el cluster.

liveness + readiness

Rollover saludable

Servidores y contenedores nuevos solo entran al pool de enrutamiento después de pasar el health check. Liveness y readiness separadas, como en Kubernetes.

[04]elige cómo actualizar

Cuatro estrategias. Una línea de diferencia.

Cambia strategy y el orquestador reconfigura el pipeline de deploy, el router y los health checks. Sin plugin externo, sin operador especializado, sin archivo extra.

deploy.rolling
update {
strategy = "rolling"
max_parallel = 1
min_healthy_time = "10s"
healthy_deadline = "3m"
auto_revert = true
}

Rolling

Una a la vez, espera a que esté sana, sigue.

El estándar seguro. Cada instancia sube, pasa el health check, y solo entonces empieza la siguiente. Cero downtime, predecible, fácil de auditar.

rollback automático en cualquiera · sin configuración extra
[05]consola

Esto es lo que operas todos los días.

Sin video, sin tour guiado — haz clic en cualquier pantalla para verla a tamaño real.

dashboard4 nodos · 9 allocations · 5 jobs
[06]auto-recuperación

Cuatro relojes corriendo todo el tiempo para que el cluster se arregle solo.

Los sistemas distribuidos derivan en silencio: una asignación huérfana aquí, un contenedor olvidado allá, una red sin uso acumulándose. La plataforma corre cuatro barridos independientes en cadencias distintas y corrige en el momento en que ve la desviación — nada llega al operador.

[01]
cada 60s

Sincronización entre servidores

Cada servidor revisa el estado de cada servicio activo y se alinea silenciosamente con sus pares. Discrepancias sutiles desaparecen antes de volverse incidente.

Cero intervención · siempre que los servidores se hablen
[02]
cada 5min

Asignaciones huérfanas

Servicios cuyo dueño fue removido (namespace eliminado, configuración borrada) se detectan y terminan automáticamente. Sin basura ocupando CPU o puertos.

Se dispara junto con la eliminación · no requiere limpieza manual
[03]
cada 15min

Redes de aislamiento

Bridges de namespace sin contenedor activo se recogen automáticamente. Espacio IP preservado, sin agotamiento silencioso del pool.

Usa el propio runtime como traba de seguridad
[04]
cada 10min

Contenedores terminados

Los contenedores terminados quedan 10 minutos en disco para inspección post-mortem y luego se remueven. Logs accesibles, después espacio liberado.

Ventana de auditoría integrada · mismo patrón que Kubernetes
todas las cadencias son configurables
[07]honestamente

Lado a lado. Sin exagerar. Sin retoques.

característica
Instalación
kubernetes
Decenas de componentes
docker swarm
Un comando (viene con Docker)
nomad
Tres herramientas separadas
heroctl
Un comando
característica
Ingress / TLS
kubernetes
Controlador + gestor de cert externo
docker swarm
Router interno + cert por fuera
nomad
Gateway + servicio extra
heroctl
Todo integrado
característica
Cifrado entre servicios
kubernetes
Gestor de cert + CRDs
docker swarm
Automático
nomad
Servicio de secrets externo
heroctl
Automático
característica
Manifiesto del servicio
kubernetes
YAML de 300+ líneas
docker swarm
docker-compose
nomad
Archivo de configuración propio
heroctl
Diez líneas · validadas al enviar
característica
Alta disponibilidad
kubernetes
Base externa
docker swarm
Integrada
nomad
Propia pero separada
heroctl
Integrada
característica
Deploy rainbow
kubernetes
Service mesh + integración propia
docker swarm
No soportado
nomad
Plugin externo
heroctl
Por flag
característica
Desarrollo activo
kubernetes
Intenso
docker swarm
Mantenido pero sin grandes novedades desde 2019
nomad
Activo
heroctl
Activo · roadmap público
característica
Ingenieros dedicados
kubernetes
4 o más
docker swarm
1 a 2
nomad
1 a 2
heroctl
Ninguno

// Kubernetes es para quien tiene equipo de infra dedicado y acepta la inversión: gente, ecosistema, meses de onboarding, factura cloud más alta. Docker Swarm resuelve bien a quien solo quiere subir un compose y seguir adelante. En el medio — donde vive la mayoría de los equipos reales — para eso existe HeroCtl. Un comando te pone en producción.

[08]menos para mantener

Un stack contra un binario.

Para poner un sitio HTTPS en producción con alta disponibilidad, cada alternativa exige montar una pila. HeroCtl es la pila.

kubernetes12 comp.
auto-hospedado en producción
  • kube-apiserver
  • etcd
  • controller-manager
  • scheduler
  • kubelet
  • kube-proxy
  • CNI (Calico/Cilium)
  • CoreDNS
  • cert-manager
  • ingress-nginx
  • ExternalDNS
  • metrics-server
rancher6 comp.
Rancher + RKE2 en producción
  • Rancher Manager
  • RKE2 (= Kubernetes)
  • cert-manager
  • ingress-nginx
  • ExternalDNS
  • etcd
nomad5 comp.
stack HashiCorp web-ready
  • Nomad
  • Consul
  • Consul Connect
  • Vault
  • Traefik/Envoy
heroctl1 comp.
un binario
  • heroctl
incluye todo lo de la izquierda
[08·b]footprint mínimo

Nuestro cluster entero cabe donde su panel de control empieza.

rancher · panel de control HA
solo el management plane, sin las workloads
cpu
12 vCPU
ram
24 GB
kubernetes · control plane auto-hospedado
api-server + etcd + controller + scheduler en HA
cpu
6 vCPU
ram
12 GB
nomad + consul + vault · servidores
3 anillos Raft separados, solo el plano de control
cpu
6 vCPU
ram
12 GB
heroctl · cluster entero sirviendo 5 sitios
3 servidores + 1 worker. Incluye control plane, ingress, TLS y los 5 workloads.
cpu
5 vCPU
ram
10 GB

// Números mínimos de los propios docs de cada producto (abr 2026). Nuestra línea está medida en el cluster que sirve este sitio. Gestionados como EKS/GKE quitan el peso de tu lado, pero aparecen como factura fija por cluster y aún exigen los add-ons de ingress, TLS y mTLS que cada equipo termina operando.

[09]honestidad cruda

Dónde HeroCtl no es la mejor opción.

Tres situaciones donde otra herramienta sirve mejor. Todas raras — y no siempre tan absolutas como parecen a primera vista. Si ninguna es la tuya, estás justo en el medio de la curva donde HeroCtl fue diseñado.

no es aquí

Escala planetaria — hoy

Si ya hoy operas 10.000+ nodos en múltiples regiones activas, con federación, service mesh y enrutamiento geográfico complejo.

usa

Kubernetes + Istio + Argo es el estado del arte — y cobra caro: 4+ SREs dedicados 24/7 y factura cloud en otro nivel. HeroCtl va de 1 nodo a unos miles en una región. Cuando de hecho llegas a CNCF-scale, el equipo que formaste aquí trae la base técnica para migrar.

no es aquí

Certificación con producto nombrado

Si tu auditor exige un producto citado nominalmente en el contrato con sello FedRAMP High, PCI Level 1 o conformidad CNCF formal, firmado por proveedor enterprise con SLA.

usa

Red Hat OpenShift o Rancher Prime tienen el sello. Los controles técnicos que el sello exige — cifrado en tránsito, aislamiento, auditoría — están aquí. Lo que falta es el papel firmado.

no es aquí

Biblioteca profunda de operators

Si tu platform team ya mantiene decenas de operators del ecosistema K8s — Postgres, Kafka, Crossplane, Prometheus — y abstracciones específicas por base son producto interno.

usa

Kubernetes. Ese ecosistema es su punto fuerte real. Para la mayoría de los equipos, además, los servicios gestionados (RDS, Redis Cloud, MSK) resuelven el mismo problema sin operator alguno — y sin tener que volverse equipo de plataforma.

Tres edge cases. Todos raros. Todo lo demás — equipos de 3 a 50 personas corriendo decenas a algunos miles de contenedores en 1, 2 o decenas de servidores — es la inmensa mayoría. Y es exactamente lo que HeroCtl resuelve con un instalador y tres comandos, sin equipo de plataforma dedicado, sin licencia corporativa, sin factura cloud que sorprenda a fin de mes.

[10]medido el 23 abr 2026

Los números salieron del cluster. Sin extrapolación.

Cluster real de 4 nós · 5 vCPU · ~10 GB, sirviendo 5 sitios en vivo. Carga generada desde el borde público — ruta completa internet → router → contenedor → respuesta. Herramientas: ab y hey.

capacidad observada

~100 req/s por réplica

1 réplica · 128 CPU shares · 64 MB RAM · nginx:alpine sirviendo HTML estático. Por encima de eso, el router devuelve 503 en lugar de tirar el contenedor.

chaos battery · 17 / 19 escenarios de falla recuperados solos
borde público → heroctl.com · c=20 · 30s sin errores
01Respuesta mediana
0 ms
02Respuesta P95
0 ms
03Respuesta P99
0 ms
04Throughput sostenido
0 req/s
05Errores
0 / 2.937
control plane · carga real de 5 sitios caught up
01API P50 (control plane)
0 ms
02API P99 (control plane)
0 ms
03Lag Raft (commit → apply)
0 ms
04CPU del líder sirviendo 5 sitios
0,0 %
05RAM del líder
0 MB / 1.963
listo para empezar

Deja de administrar
tu orquestador.

38 segundos para instalar. Tres minutos para levantar el cluster. Después, vuelves a construir producto.

sin registro · sin tarjeta · sin vendedor llamando después