当前位置:   article > 正文

Helm 安装使用

helm inti /root/.helm/cert.pe

简介

很多人都使用过Ubuntu下的ap-get或者CentOS下的yum, 这两者都是Linux系统下的包管理工具。采用apt-get/yum,应用开发者可以管理应用包之间的依赖关系,发布应用;用户则可以以简单的方式查找、安装、升级、卸载应用程序。

我们可以将Helm看作Kubernetes下的apt-get/yum。Helm是Deis (https://deis.com/) 开发的一个用于kubernetes的包管理器。每个包称为一个Chart,一个Chart是一个目录(一般情况下会将目录进行打包压缩,形成name-version.tgz格式的单一文件,方便传输和存储)。

对于应用发布者而言,可以通过Helm打包应用,管理应用依赖关系,管理应用版本并发布应用到软件仓库。

对于使用者而言,使用Helm后不用需要了解Kubernetes的Yaml语法并编写应用部署文件,可以通过Helm下载并在kubernetes上安装需要的应用。

除此以外,Helm还提供了kubernetes上的软件部署,删除,升级,回滚应用的强大功能。

Helm 组件及相关术语

Helm

Helm 是一个命令行下的客户端工具。主要用于 Kubernetes 应用程序 Chart 的创建、打包、发布以及创建和管理本地和远程的 Chart 仓库。

Tiller

Tiller 是 Helm 的服务端,部署在 Kubernetes 集群中。Tiller 用于接收 Helm 的请求,并根据 Chart 生成 Kubernetes 的部署文件( Helm 称为 Release ),然后提交给 Kubernetes 创建应用。Tiller 还提供了 Release 的升级、删除、回滚等一系列功能。

Chart

Helm 的软件包,采用 TAR 格式。类似于 APT 的 DEB 包或者 YUM 的 RPM 包,其包含了一组定义 Kubernetes 资源相关的 YAML 文件。

Repoistory

Helm 的软件仓库,Repository 本质上是一个 Web 服务器,该服务器保存了一系列的 Chart 软件包以供用户下载,并且提供了一个该 Repository 的 Chart 包的清单文件以供查询。Helm 可以同时管理多个不同的 Repository。

Release

使用 helm install 命令在 Kubernetes 集群中部署的 Chart 称为 Release。

注:需要注意的是:Helm 中提到的 Release 和我们通常概念中的版本有所不同,这里的 Release 可以理解为 Helm 使用 Chart 包部署的一个应用实例。

Helm工作原理

Chart Install 过程:

  1. Helm从指定的目录或者tgz文件中解析出Chart结构信息
  2. Helm将指定的Chart结构和Values信息通过gRPC传递给Tiller
  3. Tiller根据Chart和Values生成一个Release
  4. Tiller将Release发送给Kubernetes用于生成Release

Chart Update过程:

  1. Helm从指定的目录或者tgz文件中解析出Chart结构信息
  2. Helm将要更新的Release的名称和Chart结构,Values信息传递给Tiller
  3. Tiller生成Release并更新指定名称的Release的History
  4. Tiller将Release发送给Kubernetes用于更新Release

Chart Rollback过程:

  1. Helm将要回滚的Release的名称传递给Tiller
  2. Tiller根据Release的名称查找History
  3. Tiller从History中获取上一个Release
  4. Tiller将上一个Release发送给Kubernetes用于替换当前Release

Helm的安装

helm 安装

Helm由客户端命helm令行工具和服务端tiller组成,Helm的安装十分简单。 下载helm命令行工具到master节点node1的/usr/local/bin下,这里下载的2.14.1版本:

  1. curl -O https://get.helm.sh/helm-v2.14.1-linux-amd64.tar.gz
  2. tar -zxvf helm-v2.14.1-linux-amd64.tar.gz
  3. cd linux-amd64/
  4. cp helm /usr/local/bin/

为了安装服务端tiller,还需要在这台机器上配置好kubectl工具和kubeconfig文件,确保kubectl工具可以在这台机器上访问apiserver且正常使用。 这里的master节点已经配置好了kubectl。

创建tiller账号

因为Kubernetes APIServer开启了RBAC访问控制,所以需要创建tiller使用的service account: tiller并分配合适的角色给它。 详细内容可以查看helm文档中的Role-based Access Control。 这里简单起见直接分配cluster-admin这个集群内置的ClusterRole给它。创建helm-rbac.yaml文件:

  1. apiVersion: v1
  2. kind: ServiceAccount
  3. metadata:
  4. name: tiller
  5. namespace: kube-system
  6. ---
  7. apiVersion: rbac.authorization.k8s.io/v1beta1
  8. kind: ClusterRoleBinding
  9. metadata:
  10. name: tiller
  11. roleRef:
  12. apiGroup: rbac.authorization.k8s.io
  13. kind: ClusterRole
  14. name: cluster-admin
  15. subjects:
  16. - kind: ServiceAccount
  17. name: tiller
  18. namespace: kube-system

创建账号:

  1. [root@master /]# kubectl create -f helm-rbac.yaml
  2. serviceaccount/tiller created
  3. clusterrolebinding.rbac.authorization.k8s.io/tiller created

部署tiller

接下来使用helm部署tiller:

  1. [root@master /]# helm init --service-account tiller --skip-refresh
  2. Creating /root/.helm
  3. Creating /root/.helm/repository
  4. Creating /root/.helm/repository/cache
  5. Creating /root/.helm/repository/local
  6. Creating /root/.helm/plugins
  7. Creating /root/.helm/starters
  8. Creating /root/.helm/cache/archive
  9. Creating /root/.helm/repository/repositories.yaml
  10. Adding stable repo with URL: https://kubernetes-charts.storage.googleapis.com
  11. Adding local repo with URL: http://127.0.0.1:8879/charts
  12. $HELM_HOME has been configured at /root/.helm.
  13. Tiller (the Helm server-side component) has been installed into your Kubernetes Cluster.
  14. Please note: by default, Tiller is deployed with an insecure 'allow unauthenticated users' policy.
  15. To prevent this, run `helm init` with the --tiller-tls-verify flag.
  16. For more information on securing your installation see: https://docs.helm.sh/using_helm/#securing-your-helm-installation

由于 Helm 默认会去 kubernetes-charts.storage.googleapis.com拉取镜像,如果你当前执行的机器不能访问该域名的话可以使用以下命令来安装:

  1. # 创建服务端
  2. helm init --service-account tiller --upgrade -i registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.14.1 --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts
  3. # 创建TLS认证服务端,参考地址:https://github.com/gjmzj/kubeasz/blob/master/docs/guide/helm.md
  4. helm init --service-account tiller --upgrade -i registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.14.1 --tiller-tls-cert /etc/kubernetes/ssl/tiller001.pem --tiller-tls-key /etc/kubernetes/ssl/tiller001-key.pem --tls-ca-cert /etc/kubernetes/ssl/ca.pem --tiller-namespace kube-system --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts

client:

  1. helm init --client-only --stable-repo-url https://aliacs-app-catalog.oss-cn-hangzhou.aliyuncs.com/charts/
  2. helm repo add incubator https://aliacs-app-catalog.oss-cn-hangzhou.aliyuncs.com/charts-incubator/
  3. helm repo update

tiller默认被部署在k8s集群中的kube-system这个namespace下:

  1. [root@master /]# kubectl get pod -n kube-system -l app=helm
  2. NAME READY STATUS RESTARTS AGE
  3. tiller-deploy-7bf78cdbf7-nclnr 0/1 ImagePullBackOff 0 40s

查看:

  1. [root@master /]# helm version
  2. Client: &version.Version{SemVer:"v2.14.1", GitCommit:"5270352a09c7e8b6e8c9593002a73535276507c0", GitTreeState:"clean"}
  3. Error: could not find a ready tiller pod

异常修复

发现没有启动起来,查看错误:

  1. [root@master /]# kubectl describe pod tiller-deploy-7bf78cdbf7-nclnr -n kube-system
  2. 。。。。。。。
  3. Events:
  4. Type Reason Age From Message
  5. ---- ------ ---- ---- -------
  6. Normal Pulling 29m (x4 over 32m) kubelet, slaver1 Pulling image "gcr.io/kubernetes-helm/tiller:v2.14.1"
  7. Warning Failed 29m (x4 over 31m) kubelet, slaver1 Failed to pull image "gcr.io/kubernetes-helm/tiller:v2.14.1": rpc error: code = Unknown desc = Error response from daemon: Get https://gcr.io/v2/: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
  8. Warning Failed 29m (x4 over 31m) kubelet, slaver1 Error: ErrImagePull
  9. Normal BackOff 29m (x6 over 31m) kubelet, slaver1 Back-off pulling image "gcr.io/kubernetes-helm/tiller:v2.14.1"
  10. Normal Scheduled 28m default-scheduler Successfully assigned kube-system/tiller-deploy-7bf78cdbf7-nclnr to slaver1
  11. Warning Failed 6m58s (x97 over 31m) kubelet, slaver1 Error: ImagePullBackOff

明显就是网络问题,镜像拉去不下来

  1. [root@master /]# helm init --service-account tiller --upgrade -i registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.14.1 --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts
  2. $HELM_HOME has been configured at /root/.helm.
  3. Tiller (the Helm server-side component) has been installed into your Kubernetes Cluster.
  4. Please note: by default, Tiller is deployed with an insecure 'allow unauthenticated users' policy.
  5. To prevent this, run `helm init` with the --tiller-tls-verify flag.
  6. For more information on securing your installation see: https://docs.helm.sh/using_helm/#securing-your-helm-installation

还是有问题

直接删除/root/.helm

安装socat

[root@master /]# yum install socat -y

再卸载helm

[root@master /]# helm reset -f

再次执行

  1. [root@master /]# helm init --service-account tiller --upgrade -i registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.14.1 --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts
  2. Creating /root/.helm
  3. Creating /root/.helm/repository
  4. Creating /root/.helm/repository/cache
  5. Creating /root/.helm/repository/local
  6. Creating /root/.helm/plugins
  7. Creating /root/.helm/starters
  8. Creating /root/.helm/cache/archive
  9. Creating /root/.helm/repository/repositories.yaml
  10. Adding stable repo with URL: https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts
  11. Adding local repo with URL: http://127.0.0.1:8879/charts
  12. $HELM_HOME has been configured at /root/.helm.
  13. Tiller (the Helm server-side component) has been upgraded to the current version.
  14. [root@master /]# helm version
  15. Client: &version.Version{SemVer:"v2.14.1", GitCommit:"5270352a09c7e8b6e8c9593002a73535276507c0", GitTreeState:"clean"}
  16. Server: &version.Version{SemVer:"v2.14.1", GitCommit:"5270352a09c7e8b6e8c9593002a73535276507c0", GitTreeState:"clean"}

安装完成后查看

  1. [root@master /]# kubectl get pods -n kube-system -o wide
  2. NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
  3. coredns-5c98db65d4-gts57 1/1 Running 0 3d22h 10.244.2.2 slaver2 <none> <none>
  4. coredns-5c98db65d4-qhwrw 1/1 Running 0 3d22h 10.244.1.2 slaver1 <none> <none>
  5. etcd-master 1/1 Running 2 3d22h 18.16.202.163 master <none> <none>
  6. kube-apiserver-master 1/1 Running 2 3d22h 18.16.202.163 master <none> <none>
  7. kube-controller-manager-master 1/1 Running 6 3d22h 18.16.202.163 master <none> <none>
  8. kube-flannel-ds-amd64-2lwl8 1/1 Running 0 3d18h 18.16.202.227 slaver1 <none> <none>
  9. kube-flannel-ds-amd64-9bjck 1/1 Running 0 3d18h 18.16.202.95 slaver2 <none> <none>
  10. kube-flannel-ds-amd64-gxxqg 1/1 Running 0 3d18h 18.16.202.163 master <none> <none>
  11. kube-proxy-8cwj4 1/1 Running 0 18h 18.16.202.163 master <none> <none>
  12. kube-proxy-j9zpz 1/1 Running 0 18h 18.16.202.227 slaver1 <none> <none>
  13. kube-proxy-vfgjv 1/1 Running 0 18h 18.16.202.95 slaver2 <none> <none>
  14. kube-scheduler-master 1/1 Running 6 3d22h 18.16.202.163 master <none> <none>
  15. tiller-deploy-6787c946f8-qm9cn 1/1 Running 0 15h 10.244.1.5 slaver1 <none> <none>

可以看到只在slaver1节点上面才安装了tiller

helm 使用

更换仓库

  1. # 先移除原先的仓库
  2. helm repo remove stable
  3. # 添加新的仓库地址
  4. helm repo add stable https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts
  5. # 更新仓库
  6. helm repo update

阿里云的仓库 更新太慢,换成微软的

helm repo add stable http://mirror.azure.cn/kubernetes/charts/

查看仓库:

  1. [root@master /]# helm repo list
  2. NAME URL
  3. stable http://mirror.azure.cn/kubernetes/charts/
  4. local http://127.0.0.1:8879/charts

查看在存储库中可用的所有 Helm charts:

  1. [root@master /]# helm search
  2. NAME CHART VERSION APP VERSION DESCRIPTION
  3. stable/acs-engine-autoscaler 2.1.3 2.1.1 Scales worker nodes within agent pools
  4. stable/aerospike 0.1.7 v3.14.1.2 A Helm chart for Aerospike in Kubernetes
  5. stable/anchore-engine 0.1.3 0.1.6 Anchore container analysis and policy evaluation engine s...
  6. stable/artifactory 7.0.3 5.8.4 Universal Repository Manager supporting all major packagi...
  7. stable/artifactory-ha 0.1.0 5.8.4 Universal Repository Manager supporting all major packagi...
  8. stable/aws-cluster-autoscaler 0.3.2 Scales worker nodes within autoscaling groups.
  9. stable/bitcoind 0.1.0 0.15.1 Bitcoin is an innovative payment network and a new kind o...
  10. stable/buildkite 0.2.1 3 Agent for Buildkite
  11. stable/centrifugo 2.0.0 1.7.3 Centrifugo is a real-time messaging server.
  12. stable/cert-manager 0.2.2 0.2.3 A Helm chart for cert-manager
  13. stable/chaoskube 0.6.2 0.6.1 Chaoskube periodically kills random pods in your Kubernet...
  14. stable/chronograf 0.4.2 Open-source web application written in Go and React.js th...
  15. stable/cluster-autoscaler 0.4.2 1.1.0 Scales worker nodes within autoscaling groups.
  16. stable/cockroachdb 0.6.5 1.1.5 CockroachDB is a scalable, survivable, strongly-consisten...
  17. stable/concourse 1.0.2 3.9.0 Concourse is a simple and scalable CI system.
  18. stable/consul 1.3.1 1.0.0 Highly available and distributed service discovery and ke...
  19. stable/coredns 0.8.0 1.0.1 CoreDNS is a DNS server that chains plugins and provides ...
  20. stable/coscale 0.2.0 3.9.1 CoScale Agent
  21. stable/dask-distributed 2.0.0 Distributed computation in Python
  22. stable/datadog 0.10.9 DataDog Agent
  23. stable/docker-registry 1.0.3 2.6.2 A Helm chart for Docker Registry
  24. 。。。。。。

卸载helm

helm reset 

Helm Chart 结构

Chart 目录结构

  1. examples/
  2. Chart.yaml # Yaml文件,用于描述Chart的基本信息,包括名称版本等
  3. LICENSE # [可选] 协议
  4. README.md # [可选] 当前Chart的介绍
  5. values.yaml # Chart的默认配置文件
  6. requirements.yaml # [可选] 用于存放当前Chart依赖的其它Chart的说明文件
  7. charts/ # [可选]: 该目录中放置当前Chart依赖的其它Chart
  8. templates/ # [可选]: 部署文件模版目录,模版使用的值来自values.yaml和由Tiller提供的值
  9. templates/NOTES.txt # [可选]: 放置Chart的使用指南

Chart.yaml 文件

  1. name: [必须] Chart的名称
  2. version: [必须] Chart的版本号,版本号必须符合 SemVer 2:http://semver.org/
  3. description: [可选] Chart的简要描述
  4. keywords:
  5. - [可选] 关键字列表
  6. home: [可选] 项目地址
  7. sources:
  8. - [可选] 当前Chart的下载地址列表
  9. maintainers: # [可选]
  10. - name: [必须] 名字
  11. email: [可选] 邮箱
  12. engine: gotpl # [可选] 模版引擎,默认值是gotpl
  13. icon: [可选] 一个SVG或PNG格式的图片地址

requirements.yaml 和 charts目录

requirements.yaml 文件内容:

  1. dependencies:
  2. - name: example
  3. version: 1.2.3
  4. repository: http://example.com/charts
  5. - name: Chart名称
  6. version: Chart版本
  7. repository: 该Chart所在的仓库地址

Chart支持两种方式表示依赖关系,可以使用requirements.yaml或者直接将依赖的Chart放置到charts目录中。

templates 目录

templates目录中存放了Kubernetes部署文件的模版。

  1. # db.yaml
  2. apiVersion: v1
  3. kind: ReplicationController
  4. metadata:
  5. name: deis-database
  6. namespace: deis
  7. labels:
  8. heritage: deis
  9. spec:
  10. replicas: 1
  11. selector:
  12. app: deis-database
  13. template:
  14. metadata:
  15. labels:
  16. app: deis-database
  17. spec:
  18. serviceAccount: deis-database
  19. containers:
  20. - name: deis-database
  21. image: {{.Values.imageRegistry}}/postgres:{{.Values.dockerTag}}
  22. imagePullPolicy: {{.Values.pullPolicy}}
  23. ports:
  24. - containerPort: 5432
  25. env:
  26. - name: DATABASE_STORAGE
  27. value: {{default "minio" .Values.storage}}

创建自己的chart

我们创建一个名为mongodb的chart,看一看chart的文件结构。

  1. [root@master /]# helm create mongodb
  2. Creating mongodb
  3. [root@master /]# tree mongodb
  4. mongodb
  5. ├── charts #依赖的chart
  6. ├── Chart.yaml #Chart本身的版本和配置信息
  7. ├── templates #配置模板目录
  8. │   ├── deployment.yaml #kubernetes Deployment object
  9. │   ├── _helpers.tpl #用于修改kubernetes objcet配置的模板
  10. │   ├── ingress.yaml
  11. │   ├── NOTES.txt #helm提示信息
  12. │   ├── service.yaml #kubernetes Serivce
  13. │   └── tests
  14. │   └── test-connection.yaml
  15. └── values.yaml #kubernetes object configuration
  16. 3 directories, 8 files

参考:

kubernetes之helm简介、安装、配置、使用指南

使用kubeadm安装Kubernetes 1.15

Kubernetes Helm 初体验

转载于:https://www.cnblogs.com/hongdada/p/11265847.html

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/246629
推荐阅读
相关标签
  

闽ICP备14008679号