多实例部署可以更好地保证应用的稳定性,但也会造成闲时资源浪费,增加集群成本。手动调节方式工作量大还存在一定程度的滞后性。通过Nginx Ingress对多个应用进行HPA,可以自动根据应用的负载情况动态调整Pod副本数量,从而在保证应用稳定性和响应能力的同时,优化资源使用,降低成本。本文介绍通过Nginx Ingress对多个应用进行HPA的方法。
前提条件
通过Nginx Ingress对多个应用进行HPA前,需要将阿里云Prometheus指标转换成HPA可用的指标,您需要部署相关组件。
已部署阿里云Prometheus监控组件。具体操作,请参见使用阿里云Prometheus监控。
已部署alibaba-cloud-metrics-adapter组件。具体操作,请参见基于阿里云Prometheus指标的容器水平伸缩。
已安装压力测试工具Apache Benchmark。更多信息,请参见Apache Benchmark。
功能介绍
Ingress是Kubernetes API中的标准资源类型之一,支持将Kubernetes集群外部的请求转发至集群内部的Service,再由Service转发至Pod,处理客户端的请求。在实际的生产中,基于使用请求量来配置自动扩缩容时,您可以通过注册http_requests_total
来透出请求量指标,也可以使用Ingress组件自带的指标来进行HPA。
Nginx Ingress Controller是部署于集群内部的Ingress控制器,提供性能更好且定制性更高的使用方式。ACK集群提供的Nginx Ingress Controller在社区版本的基础上进行了功能增强,提供更便捷的使用体验。
本教程将创建两个Deployment及其对应的Service,并通过路由Ingress配置了不同的访问路径,实现对外的流量路由。然后,基于nginx_ingress_controller_requests
指标为应用配置了HPA,并通过HPA的selector.matchLabels.service
字段对指标进行过滤,以实现随着流量的变化为Pod扩缩容的功能。
步骤一:创建应用与服务
使用以下YAML文件创建业务Deployment和对应的Service。
创建并拷贝以下内容到nginx1.yaml文件。
执行以下命令,创建应用test-app和对应的Service。
kubectl apply -f nginx1.yaml
创建并拷贝以下内容到nginx2.yaml文件。
执行以下命令,创建应用sample-app和对应的Service。
kubectl apply -f nginx2.yaml
步骤二:创建路由
创建并拷贝以下内容到ingress.yaml文件。
执行以下命令,部署Ingress资源。
kubectl apply -f ingress.yaml
执行以下命令,获取Ingress资源。
kubectl get ingress -o wide
预期输出:
NAME CLASS HOSTS ADDRESS PORTS AGE test-ingress nginx test.example.com 10.10.10.10 80 55s
部署成功后,可以通过
/
和/home
两个路径分别访问Host地址。Nginx Ingress Controller会根据上方配置分别访问sample-app和test-app。通过阿里云Prometheus查询指标nginx_ingress_controller_requests
,可以获取各应用的请求情况。
步骤三:将Prometheus指标转换为HPA可用指标
修改组件ack-alibaba-cloud-metrics-adapter中的adapter-config文件。
在进行本步骤前,请确保已完成了组件ack-alibaba-cloud-metrics-adapter的部署和prometheus.url的配置。
登录容器服务管理控制台,在左侧导航栏选择集群列表。
在集群列表页面,单击目标集群名称,然后在左侧导航栏,选择 。
单击ack-alibaba-cloud-metrics-adapter,在资源区域,单击adapter-config,然后单击页面右上角的YAML 编辑。用以下代码替换值中的代码,最后单击页面下方的确定。
关于以下配置项详解,请参考基于阿里云Prometheus指标的容器水平伸缩。
rules: - metricsQuery: sum(rate(<<.Series>>{<<.LabelMatchers>>}[2m])) name: as: ${1}_per_second matches: ^(.*)_requests resources: namespaced: false seriesQuery: nginx_ingress_controller_requests
执行以下命令,查看指标输出。
kubectl get --raw "/apis/external.metrics.k8s.io/v1beta1/namespaces/*/nginx_ingress_controller_per_second" | jq .
查询指标结果如下:
{ "kind": "ExternalMetricValueList", "apiVersion": "external.metrics.k8s.io/v1beta1", "metadata": {}, "items": [ { "metricName": "nginx_ingress_controller_per_second", "metricLabels": {}, "timestamp": "2025-02-28T11:34:56Z", "value": "0" } ] }
步骤四:创建HPA
创建并拷贝以下内容到hpa.yaml文件。
执行以下命令,对业务应用sample-app和test-app分别部署HPA。
kubectl apply -f hpa.yaml
执行以下命令,查看HPA部署情况。
kubectl get hpa
预期输出:
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE sample-hpa Deployment/sample-app 0/30 (avg) 1 10 1 74s test-hpa Deployment/test-app 0/30 (avg) 1 10 1 59m
步骤五:结果验证
HPA部署成功后,使用工具Apache Benchmark进行压测实验,观察业务应用是否会随着请求增大而扩容。
执行以下命令,对Host下的
/home
路径进行压测。ab -c 50 -n 5000 test.example.com/home
执行以下命令,查看HPA情况。
kubectl get hpa
预期输出:
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE sample-hpa Deployment/sample-app 0/30 (avg) 1 10 1 22m test-hpa Deployment/test-app 22096m/30 (avg) 1 10 3 80m
执行以下命令,对Host的根路径进行压测。
ab -c 50 -n 5000 test.example.com/
执行以下命令,查看HPA情况。
kubectl get hpa
预期输出:
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE sample-hpa Deployment/sample-app 27778m/30 (avg) 1 10 2 38m test-hpa Deployment/test-app 0/30 (avg) 1 10 1 96m
从上述结果可以看到,业务应用在请求量增大超过阈值的情况下成功扩容。
相关文档
多可用区均衡是数据类型业务在高可用场景下常用的部署方式。当业务压力增大时,有多可用区均衡调度策略的应用希望能够自动扩容出多个可用区的实例来满足集群的调度水位。详细信息,请参见多可用区同时快速弹性扩容。
构建自定义操作系统镜像以提高复杂场景下弹性伸缩的便捷性,请参见弹性优化之自定义镜像。
- 本页导读 (1)
- 前提条件
- 功能介绍
- 步骤一:创建应用与服务
- 步骤二:创建路由
- 步骤三:将Prometheus指标转换为HPA可用指标
- 步骤四:创建HPA
- 步骤五:结果验证
- 相关文档