当前位置:首页 > 科技  > 软件

一篇学会用 KEDA 根据工作负载进行快速扩容

来源: 责编: 时间:2023-11-30 09:27:47 332观看
导读历史问题众所周知,Kubernetes 有个亲生的 HPA 组件,在云原生早期,这个名义上的自动扩缩容的能力给 Kubernetes 赢得了不少掌声。当然现在回头看看,仅仅根据 CPU 和内存这样“贫瘠”的指标,不论是用于判断负载水平,还是用于

历史问题

众所周知,Kubernetes 有个亲生的 HPA 组件,在云原生早期,这个名义上的自动扩缩容的能力给 Kubernetes 赢得了不少掌声。当然现在回头看看,仅仅根据 CPU 和内存这样“贫瘠”的指标,不论是用于判断负载水平,还是用于计算扩容目标,都不是很够用的。这个阶段里,HPA 的扩缩容效率也是广受诟病的一个问题,在一个多级微服务调用的业务场景里,压力是逐级传递的,下图展示了一个常见情况:dQ228资讯网——每日最新资讯28at.com

dQ228资讯网——每日最新资讯28at.com

图片图片dQ228资讯网——每日最新资讯28at.com

dQ228资讯网——每日最新资讯28at.com

如上图,用户流量进入集群之后:dQ228资讯网——每日最新资讯28at.com

  1. 首先在 Deploy A 造成负载,指标变化迫使 Deploy A 扩容
  2. A 扩容之后,吞吐量变大,B 受到压力,再次采集到指标变化,扩容 Deploy B
  3. B 吞吐变大,C ..

这个逐级传递的过程不仅缓慢,而且可以说是步步惊心——每一级的扩容都是直接被 CPU 或内存的飙高触发的,被“冲垮”的可能性是普遍存在的。这种被动、滞后的方式,很明显是有问题的。dQ228资讯网——每日最新资讯28at.com

推陈出新

造成 HPA 窘境的原因之一,就是“自扫门前雪”,每个 Pod 都只能根据自身负载情况来进行扩缩容决策。如果能够直接根据业务流量的变化进行决策,并且将流量流经的所有微服务进行扩缩容,看起来情况就会好很多了。HPA 的自定义指标支持,给这个问题了一个可行的方案。该能力让 HPA 可以用其它的指标来作为扩缩容的触发器,例如我们可以用 Promethues 采集消息中间件的深度或者负载均衡器的队列长度,作为一个更能如实反映业务流量的指标,直接用来触发相关的多个微服务的扩缩容,如下图所示:dQ228资讯网——每日最新资讯28at.com

图片图片dQ228资讯网——每日最新资讯28at.com

dQ228资讯网——每日最新资讯28at.com

在上图中:dQ228资讯网——每日最新资讯28at.com

  1. Prometheus 采集消息队列和负载均衡等更能反映业务流量的指标
  2. 使用 Prometheus Adapter 将 Promethues Metrics 转换为 Kubernetes 的 Aggregated API
  3. HPA 使用自定义指标,同时对多个应用进行扩缩容。

这中间涉及到的 Prometheus Adapter,通过配置文件完成步骤 2 的转换:dQ228资讯网——每日最新资讯28at.com

- seriesQuery: '{__name__=~"^container_.*_total",container!="POD",namespace!="",pod!=""}'  resources:    overrides:      namespace: {resource: "namespace"}      pod: {resource: "pod"}  seriesFilters:  # since this is a superset of the query above, we introduce an additional filter here  - isNot: "^container_.*_seconds_total$"  name: {matches: "^container_(.*)_total$"}  metricsQuery: "sum(rate(<<.Series>>{<<.LabelMatchers>>,container!="POD"}[2m])) by (<<.GroupBy>>)"

当然,完全可以自行实现 Aggregated API 来支持这种指标的采集和呈现工作。Prometheus 所提供的大量 Exporter 是吸引我们写这种古怪语法的最大动力。dQ228资讯网——每日最新资讯28at.com

那么如果是 KEDA 的话,这个问题又如何呢?KEDA 提供了几十个被称为 Scaler 的东西,其中除了 Promethues 之外,还包括 Kafka、Redis、PostgreSQL 等多种选择。所以在很多场景中,无需 Promethues,也能使用 Scaler 完成对输入指标的读取和判断。下面用 KEDA 为例,看看这种伸缩方法的具体实现。dQ228资讯网——每日最新资讯28at.com

KEDA

假设一个容器化应用由多个工作负载组成:dQ228资讯网——每日最新资讯28at.com

  • Ingress:负责接收业务流量
  • Backend 1、Backend 2:负责处理 Ingress 发来的任务
  • Database:数据库

我们希望达成的效果是 —— Ingress、Backend 1、Backend 2、Database,实例数量保持在 1:2:1.5:2 的关系,Keda 的大致流程如下图所示:dQ228资讯网——每日最新资讯28at.com

图片图片dQ228资讯网——每日最新资讯28at.com

dQ228资讯网——每日最新资讯28at.com

首先使用 Helm 安装 KEDA:dQ228资讯网——每日最新资讯28at.com

$ helm repo add kedacore https://kedacore.github.io/charts$ helm install keda kedacore/keda --namespace defaultNAME: kedaLAST DEPLOYED: Wed Nov 29 18:56:36 2023NAMESPACE: defaultSTATUS: deployedREVISION: 1...

随便创建几个工作负载,冒充微服务:dQ228资讯网——每日最新资讯28at.com

$ kubectl create deploy ingress --image=nginxdeployment.apps/ingress created$ kubectl create deploy backend1 --image=nginxdeployment.apps/backend1 created$ kubectl create deploy backend2 --image=nginxdeployment.apps/backend2 created$ kubectl create deploy database --image=nginxdeployment.apps/database created$ kubectl get pods | cut -d - -f 1 | grep -v keda | sort...backend1backend2databaseingress

运行成功后,我们可以看到,四个微服务,每个微服务都有一个实例。dQ228资讯网——每日最新资讯28at.com

按照刚才瞎掰的比例,编写一个 ScaleObject:dQ228资讯网——每日最新资讯28at.com

apiVersion: keda.sh/v1alpha1kind: ScaledObjectmetadata:  name: bk1spec:  scaleTargetRef:    name: backend1  triggers:  - type: kubernetes-workload    metadata:       podSelector: 'app=ingress'      value: '0.5'---apiVersion: keda.sh/v1alpha1kind: ScaledObjectmetadata:  name: bk2spec:  scaleTargetRef:    name: backend2  triggers:  - type: kubernetes-workload    metadata:       podSelector: 'app=ingress'      value: '0.67'      ---apiVersion: keda.sh/v1alpha1kind: ScaledObjectmetadata:  name: dbspec:  scaleTargetRef:    name: database  triggers:  - type: kubernetes-workload    metadata:       podSelector: 'app=ingress'      value: '0.5'

上述代码引入了 kubernetes-workload 类型的触发器,他会监控 app=ingress 的容器,并对 scaleTargetRef 中提到的工作负载数量比例进行扩缩容。dQ228资讯网——每日最新资讯28at.com

提交到集群之后,会看到实例数量数量发生了变化:dQ228资讯网——每日最新资讯28at.com

$ kubectl get pods | cut -d - -f 1 | sort | uniq --count...   2 backend1   2 backend2   2 database   1 ingress   3 keda

我们把 Ingress 扩容到 2 实例,再次统计:dQ228资讯网——每日最新资讯28at.com

$ kubectl scale deployment ingress --replicas=2deployment.apps/ingress scaled$ kubectl get pods | cut -d - -f 1 | sort | uniq --count...   4 backend1   3 backend2   4 database   2 ingress   3 keda

可以看到,的确是按照我们设定的比例,同步产生了缩放。如果缩减 Ingress 服务实例数,几分钟之后,其它工作负载也会随之缩容。dQ228资讯网——每日最新资讯28at.com

$ kubectl scale deployment ingress --replicas=1deployment.apps/ingress scaled$ kubectl get pods | cut -d - -f 1 | sort | uniq --count                                                         /...   2 backend1   2 backend2   2 database   1 ingress

结论

虽说云原生架构的复杂性问题越来越被强调,但是这一生态的宗旨应该还是没有变化——用简单的透明的手段解决复杂问题。dQ228资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-26-35285-0.html一篇学会用 KEDA 根据工作负载进行快速扩容

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: Git 难用?有救!

下一篇: useEffect 实践案例之一

标签:
  • 热门焦点
  • 6月安卓手机好评榜:魅族20 Pro蝉联冠军

    性能榜和性价比榜之后,我们来看最后的安卓手机好评榜,数据来源安兔兔评测,收集时间2023年6月1日至6月30日,仅限国内市场。第一名:魅族20 Pro好评率:95%5月份的时候魅族20 Pro就是
  • 一年经验在二线城市面试后端的经验分享

    忠告这篇文章只适合2年内工作经验、甚至没有工作经验的朋友阅读。如果你是2年以上工作经验,请果断划走,对你没啥帮助~主人公这篇文章内容来自 「升职加薪」星球星友 的投稿,坐
  • 一文搞定Java NIO,以及各种奇葩流

    大家好,我是哪吒。很多朋友问我,如何才能学好IO流,对各种流的概念,云里雾里的,不求甚解。用到的时候,现百度,功能虽然实现了,但是为什么用这个?不知道。更别说效率问题了~下次再遇到,
  • 小红书1周涨粉49W+,我总结了小白可以用的N条涨粉笔记

    作者:黄河懂运营一条性教育视频,被54万人&ldquo;珍藏&rdquo;是什么体验?最近,情感博主@公主是用鲜花做的,火了!仅仅凭借一条视频,光小红书就有超过128万人,为她疯狂点赞!更疯狂的是,这
  • 共享单车的故事讲到哪了?

    来源丨海克财经与共享充电宝相差不多,共享单车已很久没有被国内热点新闻关照到了。除了一再涨价和用户直呼用不起了。近日多家媒体再发报道称,成都、天津、郑州等地多个共享单
  • 网红炒股不为了赚钱,那就是耍流氓!

    来源:首席商业评论6月26日高调宣布入市,网络名嘴大v胡锡进居然进军了股市。在一次财经媒体峰会上,几个财经圈媒体大佬就&ldquo;胡锡进炒股是否知道认真报道&rdquo;展开讨论。有
  • 疑似小米14外观设计图曝光:后置相机模组变化不大

    下半年的大幕已经开启,而谁将成为下半年手机圈的主角就成为了大家关注的焦点,其中被传有望拿下新一代骁龙8 Gen3旗舰芯片的小米14系列更是备受大家瞩
  • OPPO K11采用全方位护眼屏:三大护眼能力减轻视觉疲劳

    日前OPPO官方宣布,全新的OPPO K11将于7月25日正式发布,将主打旗舰影像,和同档位竞品相比,其最大的卖点就是将配备索尼IMX890主摄,堪称是2000档位影像表
  • Meta盲目扩张致超万人被裁,重金押注元宇宙而前景未明

    图片来源:图虫创意日前,Meta创始人兼CEO 马克&middot;扎克伯发布公开信,宣布Meta计划裁员超11000人,占其员工总数13%。他公开承认了自己的预判失误:&ldquo;不仅
Top