当前位置:   article > 正文

AWS EKS集群使用Karpenter实现EC2工作节点弹性伸缩_aws eks 节点组 定时缩容

aws eks 节点组 定时缩容

AWS EKS集群使用Karpenter实现EC2工作节点弹性伸缩

Karpenter 是AWS开源的kubernetes 工作节点弹性管理工具,它的目标是提高Kubernetes工作节点的灵活性、伸缩性以及降低成本.

Karpenter 可以:

  • 监控所有被Kubernetes scheduler标记为unschedulable的pods
  • 评估Pod请求的调度请求: 资源请求(GPU/GPU),节点选择器, 亲和性, 容忍度, 拓扑
  • 配置满足 Pod 要求的节点
  • 调度Pods到新节点运行
  • 移除空闲或者不在需要的节点

​ 以AWS EKS服务为例,Karpenter 和Cluster AutoScaler 工作原理最大的区别: Cluster AutoScaler 是按照AutoScaling Group(弹性伸缩组)进行管理,通过调整Desired参数来实现节点的伸缩功能,CA并不会去计算、评估Pods的需求进行不同实例的扩展.

Cluster AutoScaler 工作原理:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aClh2RN7-1671346674057)(./media/image-20211217165913880.png)]

Karpenter 不使用AutoScaling Group,而是通过对Pods请求的评估直接调用EC2.CreateFleet() API 就可以扩展出所需的实例

Karpenter 工作原理:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bqThi6cD-1671346674060)(./media/image-20211217170000431.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gKNwZU5b-1671346674062)(./media/2021-karpenter-diagram.png)]

用例: 如果当前CA管理的都是x86 AutoScaling Group ,当有一个deployment 申请arm资源后, CA不能创建出ARM节点. 而Karpenter 对Pods请求的评估后调用EC2.CreateFleet() API 就可以扩展出所需的ARM实例类型.

创建集群

创建AWS EKS集群,初始化2个m5.large工作节点. 如果已经创建了集群可以忽略本小节

export CLUSTER_NAME=eksworkshop
export AWS_DEFAULT_REGION=us-west-2
AWS_ACCOUNT_ID=$(aws sts get-caller-identity --query Account --output text)

cat <<EOF > cluster.yaml
---
apiVersion: eksctl.io/v1alpha5
kind: ClusterConfig
metadata:
  name: ${CLUSTER_NAME}
  region: ${AWS_DEFAULT_REGION}
  version: "1.21"
managedNodeGroups:
  - instanceType: m5.large
    amiFamily: AmazonLinux2
    name: ${CLUSTER_NAME}-ng
    desiredCapacity: 2
    minSize: 1
    maxSize: 10
iam:
  withOIDC: true
EOF
eksctl create cluster -f cluster.yaml
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

1 . 准备工作

1.1 给VPC子网打Tag

Karpenter 会自动发现含有 kubernetes.io/cluster/$CLUSTER_NAME标记的VPC 子网. 下面将使用AWS CLI工具对EKS集群使用的VPC子网打上对应的Tag.

SUBNET_IDS=$(aws cloudformation describe-stacks \
    --stack-name eksctl-${CLUSTER_NAME}-cluster \
    --query 'Stacks[].Outputs[?OutputKey==`SubnetsPrivate`].OutputValue' \
    --output text)
aws ec2 create-tags \
    --resources $(echo $SUBNET_IDS | tr ',' '\n') \
    --tags Key="kubernetes.io/cluster/${CLUSTER_NAME}",Value=
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

1.2 创建KarpenterNode IAM 角色

Karpenter 启动的实例必须使用 InstanceProfile 运行,该Profile授予运行容器和配置网络所需的权限。 Karpenter 会自动发现并使用KarpenterNodeRole-${ClusterName}的 InstanceProfile.

首先使用CloudFormation创建IAM资源.

TEMPOUT=$(mktemp)
curl -fsSL https://karpenter.sh/docs/getting-started/cloudformation.yaml > $TEMPOUT \
&& aws cloudformation deploy \
  --stack-name Karpenter-${CLUSTER_NAME} \
  --template-file ${TEMPOUT} \
  --capabilities CAPABILITY_NAMED_IAM \
  --parameter-overrides ClusterName=${CLUSTER_NAME}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

​ 其次使用以下命令将Karpenter节点role 添加到kubernetes configmap: aws-auth ,授予Profile连接EKS集群的权限.

eksctl create iamidentitymapping \
  --username system:node:{{EC2PrivateDNSName}} \
  --cluster  ${CLUSTER_NAME} \
  --arn arn:aws:iam::${AWS_ACCOUNT_ID}:role/KarpenterNodeRole-${CLUSTER_NAME} \
  --group system:bootstrappers \
  --group system:nodes
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

1.3 为karpenterController创建serviceaccount并关联对应的IAM Role

Karpenter需要特定的权限,比如EC2创建权限. 以下命令会创建对应的 AWS IAM Role, Kubernetes service account, 并且通过AWS IRSA 功能将role和IAM Role关联在一起.

eksctl create iamserviceaccount \
  --cluster $CLUSTER_NAME --name karpenter --namespace karpenter \
  --attach-policy-arn arn:aws:iam::$AWS_ACCOUNT_ID:policy/KarpenterControllerPolicy-$CLUSTER_NAME \
  --approve
  • 1
  • 2
  • 3
  • 4

2 使用Helm 安装Karpenter charts

2.1 使用helm 部署Karpentercharts

​ 首先添加并更新karpenter的helm仓库, 使用正确的参数安装Karpenter,这里请注意我们使用eksctl创建的service account.

helm repo add karpenter https://charts.karpenter.sh
helm repo update
helm upgrade --install karpenter karpenter/karpenter --namespace karpenter \
  --create-namespace --set serviceAccount.create=false --version 0.5.2 \
  --set controller.clusterName=${CLUSTER_NAME} \
  --set controller.clusterEndpoint=$(aws eks describe-cluster --name ${CLUSTER_NAME} --query "cluster.endpoint" --output json) \
  --wait # for the defaulting webhook to install before creating a Provisioner
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

启用调试日志 (可选)

kubectl patch configmap config-logging -n karpenter --patch '{"data":{"loglevel.controller":"debug"}}'
  • 1

2.2 设置Provisioner

单个 Karpenter provisioner 可以处理许多不同的pod 资源请求. Karpenter 根据标签和关联性等pod属性做出调度和配置. Karpenter 消除了管理许多不同节点组的需求.

使用以下命令创建默认的provisioner. 使用ttlSecondsAfterEmpty 参数可以配置节点空闲时间,TTL达到之后Karpenter会终止该工作节点. 可以将该参数设置为-1或者undefined来禁止终止行为.

可以访问provisioner CRD 得到更多的provisioner 配置信息. 例如, ttlSecondsUntilExpired 可以设置Karpenter 在过期时间到达后终止该节点.

cat <<EOF | kubectl apply -f -
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
  name: default
spec:
  requirements:
    - key: karpenter.sh/capacity-type
      operator: In
      values: ["spot"]
    - key: node.kubernetes.io/instance-type
      operator: In
      values: ["m5.xlarge", "m5.2xlarge","m5.4xlarge","m5.12xlarge","c5.xlarge","c5.2xlarge","c5.4xlarge","c5.12xlarge"]
  limits:
    resources:
      cpu: 1000
  provider:
    instanceProfile: KarpenterNodeInstanceProfile-${CLUSTER_NAME}
  ttlSecondsAfterEmpty: 30
EOF
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

3 测试

3.1 部署测试应用,默认副本数为0

cat <<EOF | kubectl apply -f -
apiVersion: apps/v1
kind: Deployment
metadata:
  name: inflate
spec:
  replicas: 0
  selector:
    matchLabels:
      app: inflate
  template:
    metadata:
      labels:
        app: inflate
      annotations:
        appmesh.k8s.aws/sidecarInjectorWebhook: disabled
    spec:
      terminationGracePeriodSeconds: 0
      containers:
        - name: inflate
          image: public.ecr.aws/eks-distro/kubernetes/pause:3.2
          resources:
            requests:
              cpu: 1
EOF
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

3.2 开启多个终端窗口使用watch进行观察节点和pod

watch -t -n 1 kubectl get node -Lnode.kubernetes.io/instance-type -Ltopology.kubernetes.io/zone -Lkubernetes.io/arch

  • 1
  • 2

watch -t -n 1 kubectl get pod
  • 1
  • 2

3.3 伸缩测试

通过kubectl scale 增加inflate副本数量,触发karpenter,并观察karpenter controller日志和kubectl node

kubectl scale deployment inflate --replicas 1
  • 1

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VLXykdYU-1671346674067)(./media/image-20211217153045284.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-e4p5P99l-1671346674075)(./media/image-20211217153123001.png)]

将副本增加到10

kubectl scale deployment inflate --replicas 10
  • 1

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-r8Tpo5vp-1671346674080)(./media/image-20211217153606747.png)]

Karpenter 会计算unschedulable的Pods然后扩展EC2,这里看见拉起的就是c5.2xlarge

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sV4czKSX-1671346674088)(./media/image-20211217153812098.png)]

收缩测试,当节点空闲时Karpenter controller向该节点发出TTL标志( controller.node Added TTL to empty node)时间到了就会终止该EC2节点

 kubectl scale deployment inflate --replicas 0
  • 1

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nrpP25qB-1671346674093)(./media/image-20211217154353774.png)]

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/649039
推荐阅读
相关标签
  

闽ICP备14008679号