17370845950

Kubernetes如何实现服务伸缩_HPA自动扩缩容原理
HPA 是 Kubernetes 的水平扩缩容控制器,通过定期调用 metrics-server(或适配器)获取指标,与用户设定的目标值比较后计算副本数,并受冷却策略约束;依赖 metrics-server 正常运行、Pod 设置 resources.requests、scaleTargetRef 正确指向可伸缩对象。

HPA 是什么,它靠什么触发扩缩容

HPA(Horizontal Pod Autoscaler)不是“自己监控然后发命令”,它是一个控制循环:定期调用 metrics-server(或兼容的指标 API)拉取 Pod 的 CPU、内存等指标,再和用户设定的 targetAverageUtilizationtargetAverageValue 比较,算出目标副本数。这个过程每 15–30 秒执行一次(默认间隔由 horizontal-pod-autoscaler-sync-period 控制),但不会立刻生效——HPA 会遵守 scaleDownDelayscaleUpDelay 等冷却策略,避免抖动。

  • 必须部署 metrics-server(v1.23+ 集群不再内置),否则 HPA 一直显示 unknown metrics
  • 自定义指标(如 QPS、队列长度)需额外部署 prometheus-adapterk8s-prometheus-adapter,并注册到 APIService
  • HPA 只能作用于 DeploymentStatefulSetReplicaSet 等带 scale 子资源的对象

如何写一个能真正生效的 HPA YAML

很多 HPA 配置看起来没错,但始终不扩容,常见原因是指标不可达或资源未声明。关键点不在 minReplicas/maxReplicas,而在:

  • scaleTargetRef 必须指向一个已存在、且有副本控制器的对象(比如 Deployment/my-app),名字大小写、命名空间都不能错
  • Pod 必须设置 resources.requests(尤其是 cpu),否则 CPU 利用率无法计算(utilization = usage / requests
  • 使用 targetAverageUtilization 时,值是整数百分比(如 70 表示 70%),不是小数或带 % 符号
  • 若用 targetAverageValue(如 100m CPU),指标必须是容器级(container scope),且 metrics-server 要支持该指标类型
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
  name: my-app-hpa
spec:
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: my-app
  minReplicas: 2
  maxReplicas: 10
  metrics:
  - type: Resource
    resource:
      name: cpu
      target:
        type: Utilization
        averageUtilization: 70

为什么 HPA 显示 Unknown 或迟迟不扩容

这是最常卡住用户的环节,核心排查路径很窄,但容易忽略细节:

  • 运行 kubectl get hpa 后看 AGE 列是否为 0s 或极短,若是,说明 HPA 对象刚创建,还没完成第一次指标采集(等待 30 秒再查)
  • 查看事件:kubectl describe hpa my-app-hpa,重点找 FailedGetResourceMetricdid not receive metrics for any ready pods
  • 检查 metrics-server 是否就绪:kubectl get apiservice v1beta1.metrics.k8s.io 应为 True;若为 False,运行 ku

    bectl logs -n kube-system deployment/metrics-server
    看 TLS 或权限错误
  • 如果 Pod 处于 Pending 或反复重启,HPA 不会扩——它只对 RunningReady 的 Pod 统计指标
  • Node 资源不足(如 CPU request 总和超限)会导致新 Pod 卡在 SchedulingDisabled,此时即使 HPA 算出要扩到 8 个,实际也只会维持在当前可调度数

自定义指标扩缩容要注意的硬约束

用 Prometheus 做 QPS 扩容时,不能直接把 http_requests_total 当指标用——HPA 要的是「当前速率」,不是累计值。必须用 rate() 函数,且 adapter 配置里要明确指定:

  • 指标名称在 HPA 中引用的 name,必须和 adapter 的 rules[].seriesQuery 输出一致
  • metrics-server 不支持自定义指标,必须走 externalobject 类型,而这两类默认被禁用,需在 kube-controller-manager 启动参数中显式开启:--horizontal-pod-autoscaler-use-rest-clients=true
  • external 指标是集群级的(如网关总 QPS),object 指标是单实例级的(如某个 Service 的每秒请求数),选错类型会导致 HPA 计算逻辑偏差(例如用 external 扩单个 Deployment,所有副本会按同一全局值缩放)

真实场景里,最易被跳过的一步是:确认你的 Prometheus 查询在 adapter 的 query 字段里能返回单一数值(不是多维向量),否则 HPA 会静默失败。