当前位置:   article > 正文

Kubernetes:(十四)安全机制(一定要做好安全措施哦)_kubectl内部集群使用6443端口

kubectl内部集群使用6443端口

目录

一、kubernetes安全机制

二:Authentication认证 

2.1用户分类

2.1.1需要被认证的访问类型

2.1.2安全性说明

2.1.3证书颁发

2.1.4Service Account

2.1.5Secret 与 SA 的关系

2.1.6Service Account 中包含三个部分

2.2kubeconfig文件

三:Authorization授权

3.1授权模块

3.2RBAC

3.2.1RBAC的优势 

3.2.2RBAC 的 API 资源对象说明

3.2.3角色

3.2.4角色绑定

3.2.5主体 (subject)

3.2.6Role and ClusterRole

3.2.7RoleBinding and ClusterRoleBinding

3.2.8Resources

四:Admission Control准入控制

4.1LimitRanger示例

4.2ResourceQuota示例

五:User访问案例

5.1创建k8s用户(User)

5.1.1准备工作

5.1.2创建证书

5.1.3创建用户配置文件

5.2创建系统用户

5.3验证用户访问k8s资源

5.4创建role

5.5创建rolebinding 

5.6再验证用户访问k8s资源

5.7创建ClusterRole

5.8创建ClusterRoleBinding

5.9再验证用户访问k8s资源 

六:ServiceAccount访问案例

6.1创建namespace

6.2验证namespace的sa与secret

6.3创建pod验证其sa与secret 

6.4创建一个SA

6.5创建pod并自定义SA

6.6验证pod使用的SA

前言:Kubernetes 作为一个分布式集群的管理工具,保证集群的安全性是其一个重要的任务。API Server 是集群内部各个组件通信的中介, 也是外部控制的入口。所以 Kubernetes 的安全机制基本就是围绕保护 API Server 来设计的。
比如 kubectl 如果想向 API Server 请求资源,需要过三关,第一关是认证(Authentication),第二关是鉴权(Authorization), 第三关是准入控制(Admission Control),只有通过这三关才可能会被 K8S 创建资源。


一、kubernetes安全机制

api server是k8s集群的入口,默认有两个端口:

本地端口8080: 用于接收HTTP请求, 不对外服务, 非认证或授权的HTTP请求通过该端口访问API Server
安全端口6443: 用于接收认证授权的HTTPS请求,对外服务。
用户通过安全端口访问k8s的api server需要过三关:认证、授权、准入控制

  • Authentication认证: 用于识别用户身份, 方式有: SSL证书,token, 用户名+密码等
  • Authorization授权: 确认是否对资源具有相关的权限
  • Admission Control准入控制: 判断操作是否符合集群的要求

无论kubectl客户端命令或api或ui,在创建或访问资源时,一定要有apiServer所对应的资源版本,只要资源版本与kind能够正确匹配才能进行继续操作,否侧操作会被终止。


二:Authentication认证 

Authentication认证: 用于识别用户身份, 验证方式有:

  • token
  • 用户名+密码
  • SSL证书

HTTP Token 认证:通过一个 Token 来识别合法用户

  • HTTP Token 的认证是用一个很长的特殊编码方式的并且难以被模仿的 Token 字符串来表达客户的一种方式。
  • Token 是一个很长的很复杂的字符串,每一个 Token 对应一个用户名存储在 API Server 能访问的文件中。
  • 当客户端发起 API 调用请求时,需要在 HTTP Header 里放入 Token。
     

HTTP Base 认证:通过用户名+密码的方式认证

  • 用户名:密码 用 BASE64 算法进行编码后的字符串放在 HTTP Request 中的 Heather Authorization 域里发送给服务端, 服务端收到后进行解码,获取用户名及密码。

HTTPS 证书认证(最严格):基于 CA 根证书签名的客户端身份认证方式。

注:Token 认证和 Base 认证方式只能进行服务端对客户端的单向认证,而客户端不知道服务端是否合法;而 HTTPS 证书认证方式 则可以实现双向认证。

2.1用户分类

用户有两种:

  • 用户账户(user) : 是在集群外部访问apiserver时使用的用户,如kubectl命令就是作为kubernetes的admin用户来执行的。
  • 服务账户(ServiceAccount): 为了方便Pod里面的进程调用Kubernetes API或其他外部服务而设计的。
  • User account是为人设计的,而service account则是为Pod中的进程调用Kubernetes API而设计;
  • User account是跨namespace的,而service account则是仅局限它所在的namespace;
  • 每个namespace都会自动创建一个default service account

2.1.1需要被认证的访问类型

  1. Kubernetes 组件对 API Server 的访问:kubectl、kubelet、kube-proxy
  2. Kubernetes 管理的 Pod 对 API Server 的访问:Pod(coredns,dashborad 也是以 Pod 形式运行)

2.1.2安全性说明

  1. Controller Manager、Scheduler 与 API Server 在同一台机器,所以直接使用 API Server 的非安全端口访问(比如 8080 端口)
  2. kubectl、kubelet、kube-proxy 访问 API Server 就都需要证书进行 HTTPS 双向认证,端口号使用 6443

2.1.3证书颁发

  1. 手动签发:使用二进制部署时,需要先手动跟 CA 进行签发 HTTPS 证书
  2. 自动签发:kubelet 首次访问 API Server 时,使用 token 做认证,通过后,Controller Manager 会为 kubelet 生成一个证书, 以后的访问都是用证书做认证了

2.1.4Service Account

Service Account是为了方便 Pod 中的容器访问API Server。因为 Pod 的创建、销毁是动态的,所以要为每一个 Pod 手动生成证书就不可行了。

Kubenetes 使用了 Service Account 来循环认证,从而解决了 Pod 访问API Server的认证问题。

2.1.5Secret 与 SA 的关系

Kubernetes 设计了一种资源对象叫做 Secret,分为两类:

  1. 用于保存 ServiceAccount 的 service-account-token
  2. 用于保存用户自定义保密信息的 Opaque

2.1.6Service Account 中包含三个部分

  • Token:是使用 API Server 私钥签名的 Token 字符串序列号,用于访问 API Server 时,Server 端认证
  • ca.crt:ca 根证书,用于 Client 端验证 API Server 发送来的证书
  • namespace:标识这个 service-account-token 的作用域名空间

默认情况下,每个 namespace 都会有一个 Service Account,如果 Pod 在创建时没有指定 Service Account,就会使用 Pod 所属的 namespace 的 Service Account。每个 Pod 在创建后都会自动设置 spec.serviceAccount 为 default(除非指定了其他 Service Accout)。

2.2kubeconfig文件

kubeconfig 文件包含集群参数(CA 证书、API Server 地址),客户端参数(上面生成的证书和私钥),集群 context 上下文参数 (集群名称、用户名)。

Kubenetes 组件(如 kubelet、kube-proxy)通过启动时指定不同的 kubeconfig 文件可以切换到不同的集群 ,连接到 apiserver。
也就是说 kubeconfig 文件既是一个集群的描述,也是集群认证信息的填充。包含了集群的访问方式和认证信息。kubectl 文件默认位于 ~/.kube/config

  • kubeconfig文件用于组织有关群集、用户、命名空间和身份验证机制的信息,用于对k8s集群的访问。
  • 使用kubectl命令时默认使用~/.kube/config这个kubeconfig文件来访问k8s集群,也可以用--kubeconfig指定其它文件

一个kubeconfig文件通常由以下几个配置段组成:

  1. users:  用户账号及其认证信息列表
  2. cluster:  目标集群列表
  3. contexts:  以哪个user接入哪个cluster的连接组合。
  4. current-context: 当前使用的context

示例: 查看admin用户的kubeconfig文件

  1. [root@master1 ~]# cat /root/.kube/config
  2. apiVersion: v1
  3. clusters:
  4. - cluster:
  5. certificate-authority-data: LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUR1RENDQXFDZ0F3SUJBZ0lVRXJCMXhTc2NDMUV3V2lkckc3UEJXT29HSkFFd0RRWUpLb1pJaHZjTkFRRUwKQlFBd1lURUxNQWtHQTFVRUJoTUNRMDR4RVRBUEJnTlZCQWdUQ0VoaGJtZGFhRzkxTVFzd0NRWURWUVFIRXdKWQpVekVNTUFvR0ExVUVDaE1EYXpoek1ROHdEUVlEVlFRTEV3WlRlWE4wWlcweEV6QVJCZ05WQkFNVENtdDFZbVZ5CmJtVjBaWE13SUJjTk1qQXhNVEEwTVRNek5qQXdXaGdQTWpFeU1ERXdNVEV4TXpNMk1EQmFNR0V4Q3pBSkJnTlYKQkFZVEFrTk9NUkV3RHdZRFZRUUlFd2hJWVc1bldtaHZkVEVMTUFrR0ExVUVCeE1DV0ZNeEREQUtCZ05WQkFvVApBMnM0Y3pFUE1BMEdBMVVFQ3hNR1UzbHpkR1Z0TVJNd0VRWURWUVFERXdwcmRXSmxjbTVsZEdWek1JSUJJakFOCkJna3Foa2lHOXcwQkFRRUZBQU9DQVE4QU1JSUJDZ0tDQVFFQXpZNWhMTDhTYXU2MGVpNDR6RTlhNVdDdHVCc00KN0tmMXJkd2RnVVo2VFpRK3VFNkdhdmN5SWhCT3l2bFprVEt0WmhEcXdmSml3TjZBVk5tdTEvTktrVkZ2UEUrOQppOVF4Z0FkM0JsUk1FVi9nMUVrejZVRXpSM2JJSXdWd2QrUHRpZGZ3a1RtZ3E5bkR4MklpR3VMT1A4UnJoNmdFCmlkR1dLbERjZ0wrYnB6RUVieW4yTWpDWWY0dlZCUDlqS044WFdrM3pKdGlyMUhxOWx2akRXUEZrZStHMUZHdXEKKy9acy9jQk1Nb3JpSWhld1ZDb2t1ZGVVOVVPbUZSN0JObDFGOStBeWhWZHlmbE0yTFo1R2dQZmg2MFdBZkI2WApSa3o2dHMxcTJLR0FZdG5TeGhsblREamxpUWxWT0M2UURUeTBMNUgzV3lmdVdrOHlzWmVUNkxHQ3R3SURBUUFCCm8yWXdaREFPQmdOVkhROEJBZjhFQkFNQ0FRWXdFZ1lEVlIwVEFRSC9CQWd3QmdFQi93SUJBakFkQmdOVkhRNEUKRmdRVVRMNHErYkhUV2pMdmlVRk5BVmp4c1dTTDZuMHdId1lEVlIwakJCZ3dGb0FVVEw0cStiSFRXakx2aVVGTgpBVmp4c1dTTDZuMHdEUVlKS29aSWh2Y05BUUVMQlFBRGdnRUJBQ2pZTXVLN2dDWlJmUWVPTW1SYVg5dmNjTldECjdOOVltb25XTHNZb0RiaGE2Und1VFlFVDRBWXJuUWE1d3pEV3pBK0Erb0liSjR4WjZnREZGK2s2KzM0V1ZreXcKLyt2NkFVL2hSNytjL2pIc3RGZGFRVXZGVHFhNUtmelcyOEZHQWptQ3ZOYyt1QjJ4ZjQvcy9EMnRwTWxpT3l6cwpKWEhNV3I3UWs5RHR3THJlZ2lZTlc3a202M25RbllWSTNRQzlIK0xNaVNsMHNIUlBER1VseU15N2hqWUNQR2duCkNEQlBWYWJhR0ltdW5YSnBGd2RKTUhmbFRuZllSUnQ3RG0zOVlXMjhWSGw4N0xlZXY5Y3dlVTI5KzNtYlJiUmwKME1tNlpoQzlsK0NjSXN6dEtUVWJBQ01LT1dYbUZXRk1uQVFZdnhxN2hIR25IaXpWb3k1VHNxVkZQRUE9Ci0tLS0tRU5EIENFUlRJRklDQVRFLS0tLS0K
  6. server: https://192.168.137.20:6443
  7. name: cluster1
  8. contexts:
  9. - context:
  10. cluster: cluster1
  11. user: admin
  12. name: context-cluster1-admin
  13. current-context: context-cluster1-admin
  14. kind: Config
  15. preferences: {}
  16. users:
  17. - name: admin
  18. user:
  19. client-certificate-data: LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUQxekNDQXIrZ0F3SUJBZ0lVYUZlakwzVXErUTJqWnJIbzB4cmFaUVAyY3pZd0RRWUpLb1pJaHZjTkFRRUwKQlFBd1lURUxNQWtHQTFVRUJoTUNRMDR4RVRBUEJnTlZCQWdUQ0VoaGJtZGFhRzkxTVFzd0NRWURWUVFIRXdKWQpVekVNTUFvR0ExVUVDaE1EYXpoek1ROHdEUVlEVlFRTEV3WlRlWE4wWlcweEV6QVJCZ05WQkFNVENtdDFZbVZ5CmJtVjBaWE13SUJjTk1qQXhNVEEwTVRNek9UQXdXaGdQTWpBM01ERXdNak14TXpNNU1EQmFNR2N4Q3pBSkJnTlYKQkFZVEFrTk9NUkV3RHdZRFZRUUlFd2hJWVc1bldtaHZkVEVMTUFrR0ExVUVCeE1DV0ZNeEZ6QVZCZ05WQkFvVApEbk41YzNSbGJUcHRZWE4wWlhKek1ROHdEUVlEVlFRTEV3WlRlWE4wWlcweERqQU1CZ05WQkFNVEJXRmtiV2x1Ck1JSUJJakFOQmdrcWhraUc5dzBCQVFFRkFBT0NBUThBTUlJQkNnS0NBUUVBNHdyc0dnSnE0T00zcUV5elE2Q3AKZGRjaWlUTnNuRG1odzBjcUwyWG1CTnA4cmxSUkFiUWY3QmNpTVRPVTF5TUdTYWo4YW9TNGhjUVFqcWpVRXRBKwphUVpOTXRPTXppZVZMMHpEZzMrV09Qb3o3MGdyeEU2QzFGVE5XcGFWRjljUUFWVFJNUS9ZZm9YYmNZRDdPT1dLCktCYldJUVJ2SzF2T0RiMmhEcUZBYkl5Q3N4dzI5ZFlyL3QwNDV2QVcrUTFWMjVIYjVrQVE2a1Z5WVFYcDZJSFQKdVZmaTRnVHlrclJDY1BaVUo5Q0ZCWFcvZFhrZkViZXpGYU9iU2VwVE5NU2FGeDBCNDE1c09CTFVYRTVuRG8wRwpNZ2duV015WTVUcW1UQU5CVGw5MTNySEdTeXdSZWRtQ2Z2Q1BiZSsxVnJFU2hiK3Z6aHZkMHZ5empNbk1NcDM3CkhRSURBUUFCbzM4d2ZUQU9CZ05WSFE4QkFmOEVCQU1DQmFBd0hRWURWUjBsQkJZd0ZBWUlLd1lCQlFVSEF3RUcKQ0NzR0FRVUZCd01DTUF3R0ExVWRFd0VCL3dRQ01BQXdIUVlEVlIwT0JCWUVGTlI5MWlJY2c5UVhiemlxOXRlQgpBZEdidnpnYk1COEdBMVVkSXdRWU1CYUFGRXkrS3ZteDAxb3k3NGxCVFFGWThiRmtpK3A5TUEwR0NTcUdTSWIzCkRRRUJDd1VBQTRJQkFRQVhrNktieG1oUUdoeHd0TmZaU2txUG1tR21rK2U0OTJLRU1vSnZVcm5ZTTFaUkxmVk8KenRDbVByTWxORitIUWZySG5qczNtc1NzWmwwc1hxN3RwMnRKWEVURXFwdVdkMTBxQVZZVVBSelhrL1FLNDNXTAozYU13cWdZNjhkdGJOcytlNFpyT2J3YWJOZmp2T1RjUjVwV2RpTEFmT2hUSE9UZWtEZkUza1l4MGlQdGNGWmFTCmhVb3A5ZGV6RUpFbWNLM2xxQm1TYkN3cEhoSGZxUHlkcy8rVEhHMHdrV2E4a0pwSytxSUx6dkZDa0trRlZrMDcKcWtIMUthUHFzMUFKSmJzTWxMQjkzVEE0ajM1QWowTzF5eElpRjlDUmFoQ2pNeDlhaUl2dVNTejZpeGpMbDhWVgpnNzU0K2RzZThlMElaU0xHV2t6QzVDNnk0WWNid1ROa3dSU28KLS0tLS1FTkQgQ0VSVElGSUNBVEUtLS0tLQo=
  20. client-key-data: LS0tLS1CRUdJTiBSU0EgUFJJVkFURSBLRVktLS0tLQpNSUlFb3dJQkFBS0NBUUVBNHdyc0dnSnE0T00zcUV5elE2Q3BkZGNpaVROc25EbWh3MGNxTDJYbUJOcDhybFJSCkFiUWY3QmNpTVRPVTF5TUdTYWo4YW9TNGhjUVFqcWpVRXRBK2FRWk5NdE9NemllVkwwekRnMytXT1BvejcwZ3IKeEU2QzFGVE5XcGFWRjljUUFWVFJNUS9ZZm9YYmNZRDdPT1dLS0JiV0lRUnZLMXZPRGIyaERxRkFiSXlDc3h3Mgo5ZFlyL3QwNDV2QVcrUTFWMjVIYjVrQVE2a1Z5WVFYcDZJSFR1VmZpNGdUeWtyUkNjUFpVSjlDRkJYVy9kWGtmCkViZXpGYU9iU2VwVE5NU2FGeDBCNDE1c09CTFVYRTVuRG8wR01nZ25XTXlZNVRxbVRBTkJUbDkxM3JIR1N5d1IKZWRtQ2Z2Q1BiZSsxVnJFU2hiK3Z6aHZkMHZ5empNbk1NcDM3SFFJREFRQUJBb0lCQVFDUCtZSWxNRGxFYVBJSAplTFFKQTUzU2kxMXNNYjhEQm96cy8zamgyN1ZVaUpTZUcvdk9uOEhLZmhVQnJGc0xYanVEaEhTa3U0c2owR1JMCmd3WVE5QnRQa0Y1dUI3YjNtQ1JEZldOU1JSc25BSXJraHhpeUFMTjRJRnFrd203RFVtN2syVHRhNkZoNlN6b1EKTFNHaVAvVXZYT1BteGlBVkY3OS8rU3RqMHArKzlOMk5VT0NYSlV0MldUaFdyRDRBdHlBSG9hN3IvVnlxbGhKaQpLa3JaOURpSWh0cGp0bXorSlV1TXR0NHg4dWxvc2ZLZDBmeEtFTDdhamFsVXYxK1ZKZEc0YytvNUxjTEt6dWQzCk9QWW1aR1JPUmZHV3lSNUFNaTZmL09GU0F5dVU0MFB4Y2NrNEhRdlBkMUVPdndJVHhMc0lESy9TWUZtZDIrOTgKK1BwRkhoWUJBb0dCQU9qVVpHTGZOa2oxaFpZb0JDT2pieHM4VDZ5S0Mwc2lCNXo0VHlhdTNIRGhxNFRsbU13aQpLaVdVRWMrdmowd2NGblU4NWNsQjkwN2E4VWVnYzBsTHdHOFhuUUlYZHZvanB4Uk9oZ2pZZS90Vmk0SE5iMjJlCnoxNldsaGEyRWdESDBpQ1VsRERJVVIvVkN3N3VabzBwRnVkTjYxdXBybjQxU1M4cjBOVFVwQVdCQW9HQkFQbWoKR1ltanRMS04wY2hiNFFNejRTSW9DcEJPbGJhY1VxdzlxSGl6YzZrR0lwdDFZVFpDeTArcDVHSHJmbXpQczUrWgpVRFc4alFTdjU0R09sMUlnT2FNSTRLekk3YzhhZEExVjIzU09wSkZ4K1dlQTNQTThndUUrVzdnMzMwaWFJVXorClpxNDJyWC9YREVOWktrMHRESXdpSjRaN0VsTGsvaUxlTFJjS2NodWRBb0dBSnRraGN0blpuZXpSZ0U5bStXZFEKcDVPMW00MWcrd1ZQamVKa21vaThvVjBXR0ZPUzNpU3BNYUgySXRnaEtjclorRy9UeTNQbFJ0UURSRGRDWlMxdAppMXUrUjlZUWRRWXozNUNHanIxSVdwUllkYTBJZFpyMDhNeGhlS0tpZUZ6ZTg2NjIxempsU0ZGc3llMy9VSGhWCnFQeDRVOUFKSEdmWnNUUTNZUHVsN29FQ2dZQXdpdzdFUFJrK1AyV3oyR29BL1cyaC9yZFBLSGprY2JHQjNOdU4KM1JkNG5zRE1DaDlGTmVmakxkNURURS9oU09KYy9xc2lSL0FFSVZDYldPY0VDVkFyNitZRXMyM0xBQkhoSmZqdQp5VzRtK2tyTlhibVpjd0xnV2dmcjRyR0FwTGdsQ0xOZTNUTVAwUG1KZnlWQ3JLZnIrQmhIaGxjaDEzV3p3aEJ5CmtvMXQ0UUtCZ0I1Z08xQnNNYmpUNVZtSWJLRXVhMU03Q1BKcDVpZERNVGc2K0R2bVJKdDYwbmZrZGwyNGYzSlIKdHFwZFlXL2JyMVZsZzl1U2VFcnBXNEtTNXN0UkZPK3Q0Z212Rkx6TUJKdStoSSswN2pHUnBGanp1TDFPMVorOQpXZ0lxS2tKOW5DN3VSWEtxUmxBTXZTVVVjcUtLTUZSTWtBZEpmOUZHNEdVaHFSZUdhUlp2Ci0tLS0tRU5EIFJTQSBQUklWQVRFIEtFWS0tLS0tCg==

三:Authorization授权

之前的认证(Authentication)过程,只是确认通信的双方都确认了对方是可信的,可以相互通信。而鉴权是确定请求方有哪些资源的权限。API Server 目前支持以下几种授权策略:(通过 API Server 的启动参数 “--authorization-mode” 设置)

认证环节之后是授权, 确认是否对资源具有相关的权限

一个请求需要在其请求信息中包含用户名,请求的动作以及目标对象; 若存在某授权策略对于此请求给予了授权许可,即授权成功。

3.1授权模块

  • AlwaysDeny:表示拒绝所有的请求,一般用于测试
  • AlwaysAllow:允许接收所有请求,如果集群不需要授权流程,则可以采用该策略,一般用于测试
  • ABAC(Attribute-Based Access Control):基于属性的访问控制,表示使用用户配置的授权规则对用户请求进行匹配和控制。也就是说定义一个访问类型的属性,用户可以使用这个属性访问对应的资源。此方式设置较为繁琐,每次设置需要定义一长串的属性才可以。
  • Webhook:通过调用外部 REST 服务对用户进行授权,即可在集群外部对K8S进行鉴权
  • RBAC(Role-Based Access Control):基于角色的访问控制,K8S自1.6版本起默认使用规则

3.2RBAC

3.2.1RBAC的优势 

RBAC 相对其它访问控制方式,拥有以下优势:

  1. 对集群中的资源(Pod,Deployment,Service)和非资源(元信息或者资源状态)均拥有完整的覆盖
  2. 整个 RBAC 完全由几个 API 资源对象完成,同其它 API 资源对象一样,可以用 kubectl 或 API 进行操作
  3. 可以在运行时进行调整,无需重启 API Server,而 ABAC 则需要重启 API Server

3.2.2RBAC 的 API 资源对象说明

RBAC 引入了 4 个新的顶级资源对象:Role、ClusterRole、RoleBinding、ClusterRoleBinding4 种对象类型均可以通过 kubectl 与 API Server 操作。

官方文档:https://kubernetes.io/docs/reference/access-authn-authz/rbac/

3.2.3角色

  • Role 授权特定命名空间的访问权限

  • ClusterRole 授权所有命名空间的访问权限

3.2.4角色绑定

  • RoleBinding 将角色绑定到主机(即subject)

  • ClusterRoleBinding 将集群角色绑定到主体

如果使用 RoleBinding 绑定 ClusterRole,仍会受到命名空间的影响;

如果使用 ClusterRoleBinding 绑定 ClusterRole, 将会作用于整个 K8S 集群。

3.2.5主体 (subject)

  • User 用户
  • Group 用户组
  • Service  Account 服务帐号

User 使用字符串表示,它的前缀 system: 是系统保留的,集群管理员应该确保普通用户不会使用这个前缀格式;

Group 书写格式与 User 相同,同样 system: 前缀也为系统保留。
Pod使用 ServiceAccount 认证时,service-account-token 中的 JWT 会保存用户信息。 有了用户信息,再创建一对角色/角色绑定(集群角色/集群角色绑定)资源对象,就可以完成权限绑定了

3.2.6Role and ClusterRole

在 RBAC API 中,Role 表示一组规则权限,权限只能增加(累加权限),不存在一个资源一开始就有很多权限而通过 RBAC 对其进行减少的操作。也就是说只有白名单权限,而没有黑名单权限的概念。

Role 只能定义在一个 namespace 中,如果想要跨 namespace 则可以创建 ClusterRole,也就是说定义 ClusterRole 不需要绑定 namespace。

Role 示例

  1. apiVersion: rbac.authorization.k8s.io/v1 #指定 core API 组和版本
  2. kind: Role #指定类型为 Role
  3. metadata:
  4. namespace: default #使用默认命名空间
  5. name: pod-reader #Role 的名称
  6. rules: #定义规则
  7. - apiGroups: [""] #""表示 apiGroups 和 apiVersion 使用相同的 core API 组,即 rbac.authorization.k8s.io
  8. resources: ["pods"] #资源对象为 Pod 类型
  9. verbs: ["get", "watch", "list"] #被授予的操作权限

 以上配置的意义是,如果把 pod-reader 这个 Role 赋予给一个用户,那么这个用户将在 default 命名空间中具有对 Pod 资源对象 进行 get(获取)、watch(监听)、list(列出)这三个操作权限。

ClusterRole 示例

  1. apiVersion: rbac.authorization.k8s.io/v1
  2. kind: ClusterRole
  3. metadata:
  4. # "namespace" 被忽略,因为 ClusterRoles 不受名字空间限制
  5. name: secret-reader
  6. rules:
  7. - apiGroups: [""]
  8. resources: ["secrets"] #资源对象为 Secret 类型
  9. verbs: ["get", "watch", "list"]

3.2.7RoleBinding and ClusterRoleBinding

  1. RoloBinding 可以将角色中定义的权限授予用户或用户组,RoleBinding 包含一组主体(subject),subject 中包含有不同形式的待授予权限资源类型(User、Group、ServiceAccount);
  2. RoloBinding 同样包含对被绑定的 Role 引用;
  3. RoleBinding 适用于某个命名空间内授权,而 ClusterRoleBinding 适用于集群范围内的授权

RoleBinding 示例1

  1. apiVersion: rbac.authorization.k8s.io/v1
  2. kind: RoleBinding
  3. metadata:
  4. name: read-pods
  5. namespace: default
  6. subjects:
  7. - kind: User
  8. name: zhangsan
  9. apiGroup: rbac.authorization.k8s.io
  10. roleRef:
  11. kind: Role
  12. name: pod-reader
  13. apiGroup: rbac.authorization.k8s.io

将 default 命名空间的 pod-reader Role 授予 zhangsan 用户,此后 zhangsan 用户在 default 命名空间中将具有 pod-reader 的权限。

RoleBinding 同样可以引用 ClusterRole 来对当前 namespace 内 User、Group 或 ServiceAccount 进行授权, 这种操作允许集群管理员在整个集群内定义一些通用的 ClusterRole,然后在不同的 namespace 中使用 RoleBinding 来引用。

RoleBinding 示例2

  1. apiVersion: rbac.authorization.k8s.io/v1
  2. kind: RoleBinding
  3. metadata:
  4. name: read-secrets
  5. namespace: kube-public
  6. subjects:
  7. - kind: User
  8. name: lisi
  9. apiGroup: rbac.authorization.k8s.io
  10. roleRef:
  11. kind: ClusterRole
  12. name: secret-reader
  13. apiGroup: rbac.authorization.k8s.io

以上 RoleBinding 引用了一个 ClusterRole,这个 ClusterRole 具有整个集群内对 secrets 的访问权限;但是其授权用户 lisi 只能访问 kube-public 空间中的 secrets(因为 RoleBinding 定义在 kube-public 命名空间)。

使用 ClusterRoleBinding 可以对整个集群中的所有命名空间资源权限进行授权

ClusterRoleBinding 示例

  1. apiVersion: rbac.authorization.k8s.io/v1
  2. kind: ClusterRoleBinding
  3. metadata:
  4. name: read-secrets-global
  5. subjects:
  6. - kind: Group
  7. name: manager
  8. apiGroup: rbac.authorization.k8s.io
  9. roleRef:
  10. kind: ClusterRole
  11. name: secret-reader
  12. apiGroup: rbac.authorization.k8s.io

以上 ClusterRoleBinding 授权 manager 组内所有用户在全部命名空间中对 secrets 进行访问。

3.2.8Resources

Kubernetes 集群内一些资源一般以其名称字符串来表示,这些字符串一般会在 API 的 URL 地址中出现; 同时某些资源也会包含子资源,例如 log 资源就属于 pods 的子资源,API 中对 Pod 日志的请求 URL 样例如下:

  1. GET /api/v1/namespaces/{namespace}/pods/{name}/log
  2. #在这里,pods 对应名字空间作用域的 Pod 资源,而 log 是 pods 的子资源。

如果要在 RBAC 授权模型中控制这些子资源的访问权限,可以通过 / 分隔符来分隔资源和子资源实现。

以下是一个定义允许某主体读取 pods 同时访问这些 Pod 的 log 子资源的 Role 定义样例:

  1. apiVersion: rbac.authorization.k8s.io/v1
  2. kind: Role
  3. metadata:
  4. namespace: default
  5. name: pod-and-pod-logs-reader
  6. rules:
  7. - apiGroups: [""]
  8. resources: ["pods", "pods/log"]
  9. verbs: ["get", "list"]

rules.verbs有:"get", "list", "watch", "create", "update", "patch", "delete", "exec"
rules.resources有:"services", "endpoints", "pods", "secrets", "configmaps", "crontabs", "deployments", "jobs", "nodes", "rolebindings", "clusterroles", "daemonsets", "replicasets", "statefulsets", "horizontalpodautoscalers", "replicationcontrollers", "cronjobs"
rules.apiGroups有:"","apps", "autoscaling", "batch"


四:Admission Control准入控制

通过认证和鉴权之后,客户端并不能得到API Server的真正响应,这个请求还需通过Admission Control所控制的一个准入控制插件列表的层层考验。

准入控制器

  • Admission Control配备有一个“准入控制器”的插件列表,发送给API Server的任何请求都需要通过列表中每一个准入控制器的检查,检查不通过API Server拒绝此调用请求。
  • 此外,准入控制器还能够修改请求参数以完成一些自动化的任务,比如Service Account这个控制器。

当前可配置的Admission Control准入控制如下:

  • NamespaceLifecycle:用于命名空间回收,防止在不存在的 namespace 上创建对象,防止删除系统预置 namespace,删除 namespace 时,连带删除它的所有资源对象。
  • LimitRanger:用于配额管理,确保请求的资源不会超过资源所在 Namespace 的 LimitRange 的限制。
  • ServiceAccount:用于在每个 Pod 中自动化添加 ServiceAccount,方便访问 API Server。
  • ResourceQuota:用于资源配额管理目的,作用于namespace上,它会观察所有请求,确保在namespace上的配额不会超标。推荐在Admission Control参数列表中将这个插件安排在最后一个,以免可能被其他插件拒绝的Pod被过早分配资源。
  • NodeRestriction: 用于 Node 加入到 K8S 群集中以最小权限运行。
  • AlwaysAdmit:允许所有请求;
  • AlwaysPullmages:在启动容器之前总去下载镜像,相当于在每个容器的配置项imagePullPolicy=Always
  • AlwaysDeny:禁止所有请求,一般用于测试;
  • DenyExecOnPrivileged:它会拦截所有想在Privileged Container上执行命令的请求,如果你的集群支持Privileged Container,你又希望限制用户在这些Privileged Container上执行命令,强烈推荐你使用它,其功能已经合并到DenyEscalatingExec中。
  • ImagePolicyWebhook:这个插件将允许后端的一个Webhook程序来完成admission controller的功能。ImagePolicyWebhook需要使用一个配置文件(通过kube-apiserver的启动参数–admission-control-config-file设置)定义后端Webhook的参数。目前该插件还处在Alpha版本。
  • SecurityContextDeny:这个插件将使用SecurityContext的Pod中的定义全部失效。SecurityContext在Container中定义了操作系统级别的安全设定(uid,gid,capabilityes,SELinux等)。在未启用PodSecurityPolicy的集群中建议启用该插件,以禁用容器设置的非安全访问权限。
  • InitialResources:是一个实验特性,旨在为未设置资源请求与限制的Pod,根据其镜像的历史资源的使用情况进行初始化的资源请求、限制设置。
  • DefaultStorageClass:为了实现共享存储的动态供应,为未指定StorageClass或PV的PVC尝试匹配默认的StorageClass,尽可能减少用户在申请PVC时所需了解的后端存储细节。
  • DefaultTolerationSeconds:这个插件为那些没有设置forgiveness tolerations并具有notready:NoExecute和unreachable:NoExecute两种taints的Pod设置默认的“容忍”时间,为5min。
  • PodSecurityPolicy:这个插件用于在创建或修改Pod时决定是否根据Pod的security context和可用的PodSecurityPolicy对Pod的安全策略进行控制。

4.1LimitRanger示例

  1. [root@master1 ~]# kubectl create ns limitrange
  2. namespace/limitrange created
  3. [root@master1 ~]# kubectl describe ns limitrange
  4. Name: limitrange
  5. Labels: <none>
  6. Annotations: <none>
  7. Status: Active
  8. No resource quota.
  9. No LimitRange resource. 看到无LimitRange

cpu限制 

  1. [root@master1 ~]# vim limitrange.yml
  2. apiVersion: v1
  3. kind: LimitRange
  4. metadata:
  5. name: cpu-limit-range
  6. namespace: limitrange
  7. spec:
  8. limits:
  9. - default:
  10. cpu: 1000m
  11. defaultRequest:
  12. cpu: 1000m
  13. min:
  14. cpu: 500m
  15. max:
  16. cpu: 2000m
  17. maxLimitRequestRatio:
  18. cpu: 4
  19. type: Container
  1. [root@master1 ~]# kubectl apply -f limitrange.yml
  2. limitrange/cpu-limit-range created

查看名称空间

  1. [root@master1 ~]# kubectl describe ns limitrange
  2. Name: limitrange
  3. Labels: <none>
  4. Annotations: <none>
  5. Status: Active
  6. No resource quota.
  7. Resource Limits
  8. Type Resource Min Max Default Request Default Limit Max Limit/Request Ratio
  9. ---- -------- --- --- --------------- ------------- -----------------------
  10. Container cpu 500m 2 1 1 4
  1. [root@master1 ~]# vim limitrange-pod.yml
  2. apiVersion: v1
  3. kind: Pod
  4. metadata:
  5. name: nginx
  6. namespace: limitrange
  7. spec:
  8. containers:
  9. - name: c1
  10. image: nginx:1.15-alpine
  11. imagePullPolicy: IfNotPresent
  12. resources:
  13. requests:
  14. cpu: 200m # cpu请求200m,小于namespace的cpu最小限制(500m)
  1. [root@master1 ~]# kubectl apply -f limitrange-pod.yml
  2. Error from server (Forbidden): error when creating "limitrange-pod.yml": pods "nginx" is forbidden: [minimum cpu usage per Container is 500m, but request is 200m, cpu max limit to request ratio per Container is 4, but provided ratio is 5.000000]

说明: 可看到namespace的cpu最小限制是500m,创建此pod请求为200m,准入控制拒绝了。 改成限制范围内就可以创建。

  1. [root@master1 ~]# vim limitrange-pod.yml
  2. apiVersion: v1
  3. kind: Pod
  4. metadata:
  5. name: nginx
  6. namespace: limitrange
  7. spec:
  8. containers:
  9. - name: c1
  10. image: nginx:1.15-alpine
  11. imagePullPolicy: IfNotPresent
  12. resources:
  13. requests:
  14. cpu: 600m # 改成大于500m
  1. [root@master1 ~]# kubectl apply -f limitrange-pod.yml
  2. pod/nginx created
  3. [root@master1 ~]# kubectl get pods -n limitrange
  4. NAME READY STATUS RESTARTS AGE
  5. nginx 1/1 Running 0 11s 可以成功创建pod

4.2ResourceQuota示例

  1. [root@master1 ~]# vim resourcequota.yml
  2. apiVersion: v1
  3. kind: ResourceQuota
  4. metadata:
  5. name: quota
  6. namespace: limitrange
  7. spec:
  8. hard: # 硬限制
  9. pods: "1" # 限制此namespace里就不能超过1个pod
  1. [root@master1 ~]# kubectl apply -f resourcequota.yml
  2. resourcequota/quota created
  1. [root@master1 ~]# kubectl describe ns limitrange
  2. Name: limitrange
  3. Labels: <none>
  4. Annotations: <none>
  5. Status: Active
  6. Resource Quotas
  7. Name: quota
  8. Resource Used Hard
  9. -------- --- ---
  10. pods 1 1 # 硬限制为1个pod,已经有1个pod了
  11. Resource Limits
  12. Type Resource Min Max Default Request Default Limit Max Limit/Request Ratio
  13. ---- -------- --- --- --------------- ------------- -----------------------
  14. Container cpu 500m 2 1 1 4
  1. [root@master1 ~]# vim resourcequota-pod.yml
  2. apiVersion: v1
  3. kind: Pod
  4. metadata:
  5. name: nginx2 # 改一个pod名
  6. namespace: limitrange # 相同的namespace
  7. spec:
  8. containers:
  9. - name: c1
  10. image: nginx:1.15-alpine
  11. imagePullPolicy: IfNotPresent
  1. [root@master1 ~]# kubectl apply -f resourcequota-pod.yml
  2. Error from server (Forbidden): error when creating "resourcequota-pod.yml": pods "nginx2" is forbidden: exceeded quota: quota, requested: pods=1, used: pods=1, limited: pods=1
  3. 报错,pod数量超过了

五:User访问案例

5.1创建k8s用户(User)

5.1.1准备工作

  1. [root@master1 ~]# mkdir rbac
  2. [root@master1 ~]# cd rbac/
  3. [root@master1 rbac]# cp /etc/kubernetes/ssl/ca-key.pem .
  4. [root@master1 rbac]# cp /etc/kubernetes/ssl/ca.pem .

5.1.2创建证书

  1. # 创建user私钥
  2. [root@master1 rbac]# openssl genrsa -out daniel.key 2048
  3. # 创建证书签署请求(subj中的CN为用户名,O为用户组)
  4. [root@master1 rbac]# openssl req -new -key daniel.key -out daniel.csr -subj "/O=k8s/CN=daniel"
  5. # 签署证书
  6. [root@master1 rbac]# openssl x509 -req -in daniel.csr -CA ca.pem -CAkey ca-key.pem -CAcreateserial -out daniel.crt -days 365
  7. Signature ok
  8. subject=/O=k8s/CN=daniel
  9. Getting CA Private Key
  10. [root@master1 rbac]# ls
  11. ca-key.pem ca.pem ca.srl daniel.crt daniel.csr daniel.key

5.1.3创建用户配置文件

过程复杂,直接用脚本

  1. [root@master1 rbac]# vim create-rbac-user.sh
  2. #设置集群连接
  3. kubectl config set-cluster kubernetes \
  4. --certificate-authority=ca.pem \
  5. --embed-certs=true \
  6. --server=https://192.168.137.20:6443 \
  7. --kubeconfig=daniel-kubeconfig
  8. #颁发证书
  9. kubectl config set-credentials daniel \
  10. --client-key=daniel.key \
  11. --client-certificate=daniel.crt \
  12. --embed-certs=true \
  13. --kubeconfig=daniel-kubeconfig
  14. #设置安全上下文
  15. kubectl config set-context daniel@kubernetes \
  16. --cluster=kubernetes \
  17. --user=daniel \
  18. --kubeconfig=daniel-kubeconfig
  19. #切换安全上下文
  20. kubectl config use-context daniel@kubernetes --kubeconfig=daniel-kubeconfig
  21. #查看安全上下文
  22. kubectl config view --kubeconfig=daniel-kubeconfig

执行脚本

  1. [root@master1 rbac]# sh create-rbac-user.sh
  2. Cluster "kubernetes" set.
  3. User "daniel" set.
  4. Context "daniel@kubernetes" created.
  5. Switched to context "daniel@kubernetes".
  6. apiVersion: v1
  7. clusters:
  8. - cluster:
  9. certificate-authority-data: DATA+OMITTED
  10. server: https://192.168.137.20:6443
  11. name: kubernetes
  12. contexts:
  13. - context:
  14. cluster: kubernetes
  15. user: daniel
  16. name: daniel@kubernetes
  17. - context:
  18. cluster: kubernetes
  19. user: daniel
  20. name: default
  21. current-context: daniel@kubernetes
  22. kind: Config
  23. preferences: {}
  24. users:
  25. - name: daniel
  26. user:
  27. client-certificate-data: REDACTED
  28. client-key-data: REDACTED

查看kubeconfig文件 

  1. [root@master1 ~]# cat /root/rbac/daniel-kubeconfig
  2. apiVersion: v1
  3. clusters:
  4. - cluster:
  5. certificate-authority-data: LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUR1RENDQXFDZ0F3SUJBZ0lVRXJCMXhTc2NDMUV3V2lkckc3UEJXT29HSkFFd0RRWUpLb1pJaHZjTkFRRUwKQlFBd1lURUxNQWtHQTFVRUJoTUNRMDR4RVRBUEJnTlZCQWdUQ0VoaGJtZGFhRzkxTVFzd0NRWURWUVFIRXdKWQpVekVNTUFvR0ExVUVDaE1EYXpoek1ROHdEUVlEVlFRTEV3WlRlWE4wWlcweEV6QVJCZ05WQkFNVENtdDFZbVZ5CmJtVjBaWE13SUJjTk1qQXhNVEEwTVRNek5qQXdXaGdQTWpFeU1ERXdNVEV4TXpNMk1EQmFNR0V4Q3pBSkJnTlYKQkFZVEFrTk9NUkV3RHdZRFZRUUlFd2hJWVc1bldtaHZkVEVMTUFrR0ExVUVCeE1DV0ZNeEREQUtCZ05WQkFvVApBMnM0Y3pFUE1BMEdBMVVFQ3hNR1UzbHpkR1Z0TVJNd0VRWURWUVFERXdwcmRXSmxjbTVsZEdWek1JSUJJakFOCkJna3Foa2lHOXcwQkFRRUZBQU9DQVE4QU1JSUJDZ0tDQVFFQXpZNWhMTDhTYXU2MGVpNDR6RTlhNVdDdHVCc00KN0tmMXJkd2RnVVo2VFpRK3VFNkdhdmN5SWhCT3l2bFprVEt0WmhEcXdmSml3TjZBVk5tdTEvTktrVkZ2UEUrOQppOVF4Z0FkM0JsUk1FVi9nMUVrejZVRXpSM2JJSXdWd2QrUHRpZGZ3a1RtZ3E5bkR4MklpR3VMT1A4UnJoNmdFCmlkR1dLbERjZ0wrYnB6RUVieW4yTWpDWWY0dlZCUDlqS044WFdrM3pKdGlyMUhxOWx2akRXUEZrZStHMUZHdXEKKy9acy9jQk1Nb3JpSWhld1ZDb2t1ZGVVOVVPbUZSN0JObDFGOStBeWhWZHlmbE0yTFo1R2dQZmg2MFdBZkI2WApSa3o2dHMxcTJLR0FZdG5TeGhsblREamxpUWxWT0M2UURUeTBMNUgzV3lmdVdrOHlzWmVUNkxHQ3R3SURBUUFCCm8yWXdaREFPQmdOVkhROEJBZjhFQkFNQ0FRWXdFZ1lEVlIwVEFRSC9CQWd3QmdFQi93SUJBakFkQmdOVkhRNEUKRmdRVVRMNHErYkhUV2pMdmlVRk5BVmp4c1dTTDZuMHdId1lEVlIwakJCZ3dGb0FVVEw0cStiSFRXakx2aVVGTgpBVmp4c1dTTDZuMHdEUVlKS29aSWh2Y05BUUVMQlFBRGdnRUJBQ2pZTXVLN2dDWlJmUWVPTW1SYVg5dmNjTldECjdOOVltb25XTHNZb0RiaGE2Und1VFlFVDRBWXJuUWE1d3pEV3pBK0Erb0liSjR4WjZnREZGK2s2KzM0V1ZreXcKLyt2NkFVL2hSNytjL2pIc3RGZGFRVXZGVHFhNUtmelcyOEZHQWptQ3ZOYyt1QjJ4ZjQvcy9EMnRwTWxpT3l6cwpKWEhNV3I3UWs5RHR3THJlZ2lZTlc3a202M25RbllWSTNRQzlIK0xNaVNsMHNIUlBER1VseU15N2hqWUNQR2duCkNEQlBWYWJhR0ltdW5YSnBGd2RKTUhmbFRuZllSUnQ3RG0zOVlXMjhWSGw4N0xlZXY5Y3dlVTI5KzNtYlJiUmwKME1tNlpoQzlsK0NjSXN6dEtUVWJBQ01LT1dYbUZXRk1uQVFZdnhxN2hIR25IaXpWb3k1VHNxVkZQRUE9Ci0tLS0tRU5EIENFUlRJRklDQVRFLS0tLS0K
  6. server: https://192.168.137.20:6443
  7. name: kubernetes
  8. contexts:
  9. - context:
  10. cluster: kubernetes
  11. user: daniel
  12. name: daniel@kubernetes
  13. - context:
  14. cluster: kubernetes
  15. user: daniel
  16. name: default
  17. current-context: daniel@kubernetes
  18. kind: Config
  19. preferences: {}
  20. users:
  21. - name: daniel
  22. user:
  23. client-certificate-data: LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUMvRENDQWVRQ0NRQzU2Z3poZFcrb1pUQU5CZ2txaGtpRzl3MEJBUXNGQURCaE1Rc3dDUVlEVlFRR0V3SkQKVGpFUk1BOEdBMVVFQ0JNSVNHRnVaMXBvYjNVeEN6QUpCZ05WQkFjVEFsaFRNUXd3Q2dZRFZRUUtFd05yT0hNeApEekFOQmdOVkJBc1RCbE41YzNSbGJURVRNQkVHQTFVRUF4TUthM1ZpWlhKdVpYUmxjekFlRncweU1ERXhNRGt4Ck16UTFNemRhRncweU1URXhNRGt4TXpRMU16ZGFNQjh4RERBS0JnTlZCQW9NQTJzNGN6RVBNQTBHQTFVRUF3d0cKWkdGdWFXVnNNSUlCSWpBTkJna3Foa2lHOXcwQkFRRUZBQU9DQVE4QU1JSUJDZ0tDQVFFQTJ5SFEvekhveUtNMQo1VzVwM3dLTVBlcjNrbXZET0pTMFhmQVJRTUVYYTVkVmtvVForNmN1M1A2ay9aZTNwNlIydzZIczAvSzlScEE5ClprMGIzb1NGbzlsODlwWTZ5ODQyN1FVN0lHSzJIdUMrMkZ4Vys1c1ZsMFhqczRNUWNxWDgwVTh0R3dadTZBUmoKc1VkcmVwSDNxMmpTbFpEbDNpME1ockFaSmR6dk1XU1I5cnVzMjFhbzYzaUtXL291dFJqaEt0cDhoV1QvbFBiSgpnQkYyV3E1b2RsZ1ZoY2YxT0xBNGQ1L2JTUXUwMkQwdHFmM21RamVNN0FSYWJGdG8wcUhpS2lQNjBINkI4OEg2Ck1KYXdFWnp2bUt2UXc4YjhMVWxmNkpybkM1WGc4TDA2WHNEQmJ6MFRxQzFkeHFjY2pVaXRiUEQwN3ZKemFUZDEKK1p4U2JnYW1nUUlEQVFBQk1BMEdDU3FHU0liM0RRRUJDd1VBQTRJQkFRQ212YmgvUnMreVJ0S2JUSTVQQUE1UApKSER6MEJCNnJ4ZUxTTTYxcndJaFY0MXZjNE1iYkVKSW1yMm4vQU84Q3BjOUFlaExXeWExQkozaUswcW54bWYxCnhPT1JjYlgrb3JJQ1lUWGpPV3ZzbGlxSmlwcGRsd0syOEE0YkVGaUZIemVwcENiYm1JUHFnSzYva3pGTWl5ZEsKK0Y5ZVJnVjhTYk91aUV2MXRvWUxGOC9pMmpkeW1BWkszZUMrNnRuMFQ3UzRLdmxjSFYycFpqa051ZTRTVzNCYwpJRHdaKzVyMlkybTMrZmY2TVc1QUhFcnRubG5ETlFKeXRWRmFGTWViaDNlZlZENk1Xa0psVG1kbGlpaUxKVzYrCklmcXhxTEo5QWNBTTZ2Mk1Belh2RHRBWjF4RFNSSUhtamk3d1A1RmYxdGdFeVB3a3N5NWs1UCtYKytadUVPTlcKLS0tLS1FTkQgQ0VSVElGSUNBVEUtLS0tLQo=
  24. client-key-data: LS0tLS1CRUdJTiBSU0EgUFJJVkFURSBLRVktLS0tLQpNSUlFb3dJQkFBS0NBUUVBMnlIUS96SG95S00xNVc1cDN3S01QZXIza212RE9KUzBYZkFSUU1FWGE1ZFZrb1RaCis2Y3UzUDZrL1plM3A2UjJ3NkhzMC9LOVJwQTlaazBiM29TRm85bDg5cFk2eTg0MjdRVTdJR0sySHVDKzJGeFcKKzVzVmwwWGpzNE1RY3FYODBVOHRHd1p1NkFSanNVZHJlcEgzcTJqU2xaRGwzaTBNaHJBWkpkenZNV1NSOXJ1cwoyMWFvNjNpS1cvb3V0UmpoS3RwOGhXVC9sUGJKZ0JGMldxNW9kbGdWaGNmMU9MQTRkNS9iU1F1MDJEMHRxZjNtClFqZU03QVJhYkZ0bzBxSGlLaVA2MEg2Qjg4SDZNSmF3RVp6dm1LdlF3OGI4TFVsZjZKcm5DNVhnOEwwNlhzREIKYnowVHFDMWR4cWNjalVpdGJQRDA3dkp6YVRkMStaeFNiZ2FtZ1FJREFRQUJBb0lCQUM0Rm1DTkFsQ2N2UCs2RApsZkNrVkZmY3RVb25IOFVPVmlNMGZDc2hZbzNTSnNLeTdDVVNJNkYrU2FDSThLVmd3U0N0TFZRR013SlM0TkpQCmQzN3dUakR2U0hOeGNiL0QrMzBrRUJycElGNnp6T0ViNDVqTUpXaXo0UEtlb0NHMEFyamk3QkkwODYzKzNnRXAKZ3NVblN1RFJEd2tpZVdTRUNaRndBcGdWSXBjNHFHbG1hV1l0U2d4VWZCMDJnZDNSSkMxMlhUK3hjeG9TU24xWQpPaFl0WGhOaEtXaWF2b2FUQ1JzV0hrTU9DaFVVdFI1eUtoSUZxTGFYb2llMXBhbDhDb3o1SkJkMXppbVJqVUIyCjRSSGR2K01Xemt0SlMyU1RSYWpKYzJ3TWozT3QwR3FsckJJcDh0TksrYjVFQzNnRitXNytRa2wzdE9IRUVWNk8KWWtGdUpCRUNnWUVBOTVXbGV1cnhxQ0JuQ1VZeWxIRm1KcGlPeHgrVENKQnEzems3b1dzMmdVRUFXUFNBUG9ETgpaS0JKSXJOekxnTUJmY2RjMC9MN0VRQnhaVmsvQnpCMjloZks5bC9CMVJxSkNqSGN6bzVJbEJwVUlOK1ZoZHduCjlZTXhnNDllYTNCTnJDd2crYm5QRkRlWFVnU0EzQzB3N3VCSGF0ZTNyMURjVThkM3dUYnV5ZmNDZ1lFQTRwU1gKWHQwbWJsbVEzUlVpd1lvK3RQRjZBZW41TWN6Zko2azJRc1pwVVErMlI4NUlaa1ZKSVJta0VaMmdCUWJOMWhFUQo5SGtOYWc5dFRHM044UU01V3NGbzJCYXViMmlFTEwxbk1vUjNxZEZrMUdHaVdOSW80MTFScHU5MU43OXRMRWhpCk5BaWtjQ0RNajBUbjh1MUZlS3cyV1YybGUySEVwUUxueFJMSHRVY0NnWUVBN3JuRWpmanNlb2lEMFZWMmY5dTMKKzQ4dVhLSDlURXkwUC9rWG5sV2FnSmNFbHNGcXh0bTdNa083UVZKMnhPN3hDUzZxTzFRVzhoWFRRVDRFb0JJRApJdGRlUktHZ2JMTGhZSXNqdGFkTUpFSWV6SFBKNFFDZkp3UVJRaUdEa1dULy8vdXM4QjVScGRUVWU2a0w5MEU3CjVaa3NROEVzeEViYnE0eXgxQVA3eTVFQ2dZQis0dEdtS1ZpbFFYa3pwZXR4MFJadXhEQWNORWYrRUlvRHJ1b1oKR1AzUGpHbjY2bFYzR0dQc3FteE1CU2FneWYrcFdxTlJGUjFqQU1Lbm8zSkoveEUyZHN0Yy84NnR5eTBCMVF1ZQpxYnBObWxySjZPYytzR3AvY1RvUnIxWElZMllpLzJJblc1T2l5MnRpN0Nhc3p4MHhoOWRqMG1LaXBzeTF6OXUxCmJGLzBid0tCZ0FmZm96OXNMeXpIK0pvT3NsUnNLaEhWTHhmSXoxUXZkT3FtY0hQN0paS0hqMFpyeGJsajlzYVoKMjROK0x1ZFZpRjl0V3VxOUYxVk1LbXY4K3pITW91d3JwcHduN1JEQm93dnk0M3lnYkZDNXZrd2dkMXdIcmcwOApycEMza0NLWjJlbERxSVZoZlYxaUlHSDhvQmlqSVJiUEFlTGtkRksveWFwS09Rd2pZNkM4Ci0tLS0tRU5EIFJTQSBQUklWQVRFIEtFWS0tLS0tCg==

5.2创建系统用户

  1. [root@master1 rbac]# useradd daniel
  2. [root@master1 rbac]# mkdir -p /home/daniel/.kube
  3. [root@master1 rbac]# cp /root/rbac/daniel-kubeconfig /home/daniel/.kube/config
  4. [root@master1 rbac]# chown daniel.daniel -R /home/daniel/
  5. [root@master1 rbac]# su - daniel

说明: 切换登录用户时, 就使用了/home/daniel/.kube/config文件。

5.3验证用户访问k8s资源

可以看到daniel用户对pod,svc,ns等资源都没有权限

  1. [daniel@master1 ~]$ kubectl get pod
  2. Error from server (Forbidden): pods is forbidden: User "daniel" cannot list resource "pods" in API group "" in the namespace "default"
  3. [daniel@master1 ~]$ kubectl get svc
  4. Error from server (Forbidden): services is forbidden: User "daniel" cannot list resource "services" in API group "" in the namespace "default"
  5. [daniel@master1 ~]$ kubectl get ns
  6. Error from server (Forbidden): namespaces is forbidden: User "daniel" cannot list resource "namespaces" in API group "" at the cluster scope

5.4创建role

  1. [root@master1 rbac]# vim role-pods-read.yaml
  2. apiVersion: rbac.authorization.k8s.io/v1
  3. kind: Role
  4. metadata:
  5. name: role-pods-reader
  6. rules:
  7. - apiGroups:
  8. - ""
  9. resources:
  10. - pods
  11. verbs:
  12. - get
  13. - list
  14. - watch

说明: 此role是表示对pods资源有读的相关权限(get,list,watch)

  1. [root@master1 rbac]# kubectl apply -f role-pods-read.yaml
  2. role.rbac.authorization.k8s.io/role-pods-reader created
  3. [root@master1 rbac]# kubectl get role |grep role-pods-reader
  4. role-pods-reader 2020-11-09T14:36:36Z

5.5创建rolebinding 

  1. [root@master1 rbac]# vim rolebinding-pods-read.yml
  2. apiVersion: rbac.authorization.k8s.io/v1
  3. kind: RoleBinding
  4. metadata:
  5. name: rolebinding-pods-reader
  6. roleRef:
  7. apiGroup: rbac.authorization.k8s.io
  8. kind: Role
  9. name: role-pods-reader # 对应上一步的role名
  10. subjects:
  11. - apiGroup: rbac.authorization.k8s.io
  12. kind: User
  13. name: daniel # 与前面创建的k8s用户一致
  1. [root@master1 rbac]# kubectl apply -f rolebinding-pods-read.yml
  2. rolebinding.rbac.authorization.k8s.io/rolebinding-pods-reader created
  3. [root@master1 rbac]# kubectl get rolebinding |grep rolebinding-pods-reader
  4. rolebinding-pods-reader Role/role-pods-reader 98s

说明: 这样系统用户daniel与k8s用户daniel通过这个rolebindingrole里定义的权限都联系起来了

5.6再验证用户访问k8s资源

  1. [root@master1 rbac]# su - daniel
  2. [daniel@master1 ~]$ kubectl get pods
  3. NAME READY STATUS RESTARTS AGE
  4. deploy-nginx-nfs-6f9bc4546c-dw64l 1/1 Running 1 26h
  5. deploy-nginx-nfs-6f9bc4546c-fv4wl 1/1 Running 1 26h
  6. nfs-client-provisioner-5b5ddcd6c8-d7sjw 1/1 Running 1 26h
  7. pod-cm1 1/1 Running 7 2d2h
  8. pod-cm2 1/1 Running 7 2d2h
  9. pod-mysql-secret1 1/1 Running 1 27h
  10. pod-mysql-secret2 1/1 Running 1 27h
  11. web-0 1/1 Running 1 26h
  12. web-1 1/1 Running 1 26h
  13. web-2 1/1 Running 1 26h
  14. [daniel@master1 ~]$ kubectl get pods -n kube-system
  15. Error from server (Forbidden): pods is forbidden: User "daniel" cannot list resource "pods" in API group "" in the namespace "kube-system"
  16. [daniel@master1 ~]$ kubectl get svc
  17. Error from server (Forbidden): services is forbidden: User "daniel" cannot list resource "services" in API group "" in the namespace "default"
  18. [daniel@master1 ~]$ kubectl get ns
  19. Error from server (Forbidden): namespaces is forbidden: User "daniel" cannot list resource "namespaces" in API group "" at the cluster scope

说明: 由上可知,daniel 用户终于可以访问default命名空间里的pods资源了,但其它的还没有权限访问 

5.7创建ClusterRole

  1. [root@master1 rbac]# vim clusterrole-pods-reader.yaml
  2. apiVersion: rbac.authorization.k8s.io/v1
  3. kind: ClusterRole
  4. metadata:
  5. name: clusterrole-pods-reader
  6. rules:
  7. - apiGroups:
  8. - ""
  9. resources:
  10. - pods
  11. verbs:
  12. - get
  13. - list
  14. - watch
  1. [root@master1 rbac]# kubectl apply -f clusterrole-pods-reader.yaml
  2. clusterrole.rbac.authorization.k8s.io/clusterrole-pods-reader created
  3. [root@master1 rbac]# kubectl get clusterrole |grep pods-reader
  4. clusterrole-pods-reader 2022-08-06T14:55:30Z

5.8创建ClusterRoleBinding

  1. [root@master1 rbac]# vim clusterrolebinding-pods-reader.yaml
  2. apiVersion: rbac.authorization.k8s.io/v1beta1
  3. kind: ClusterRoleBinding
  4. metadata:
  5. name: clusterrolebinding-pods-reader
  6. roleRef:
  7. apiGroup: rbac.authorization.k8s.io
  8. kind: ClusterRole
  9. name: clusterrole-pods-reader
  10. subjects:
  11. - apiGroup: rbac.authorization.k8s.io
  12. kind: User
  13. name: daniel

5.9再验证用户访问k8s资源 

  1. [root@master1 rbac]# su - daniel
  2. [daniel@master1 ~]$ kubectl get pod --all-namespaces
现在所有命名空间的pods都可以访问了

问题: 访问svc等其它资源如何操作?

可参考查看admin这个clusterrole

[root@master1 rbac]# kubectl get clusterrole admin -o yaml

六:ServiceAccount访问案例

6.1创建namespace

  1. [root@master1 ~]# kubectl create namespace sa
  2. namespace/sa created

6.2验证namespace的sa与secret

创建namespace默认会创建一个serviceaccount和一个secret

  1. [root@master1 ~]# kubectl get sa -n sa
  2. NAME SECRETS AGE
  3. default 1 37s
  4. [root@master1 ~]# kubectl get secret -n sa
  5. NAME TYPE DATA AGE
  6. default-token-dtbj5 kubernetes.io/service-account-token 3 49s
  1. [root@master1 ~]# kubectl describe sa default -n sa
  2. Name: default
  3. Namespace: sa
  4. Labels: <none>
  5. Annotations: <none>
  6. Image pull secrets: <none>
  7. Mountable secrets: default-token-dtbj5
  8. Tokens: default-token-dtbj5
  9. Events: <none>
  1. [root@master1 ~]# kubectl describe secret default-token-dtbj5 -n sa
  2. Name: default-token-dtbj5
  3. Namespace: sa
  4. Labels: <none>
  5. Annotations: kubernetes.io/service-account.name: default
  6. kubernetes.io/service-account.uid: 8372360a-2b0e-41cd-9023-90514699573a
  7. Type: kubernetes.io/service-account-token
  8. Data
  9. ====
  10. ca.crt: 1350 bytes
  11. namespace: 2 bytes
  12. token: eyJhbGciOiJSUzI1NiIsImtpZCI6InA0ZmVpcVJFUEJVdzIxNF9CY0FEZGljQUFiLUl3S21VTGI5QkpiLXZocDAifQ.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJzYSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJkZWZhdWx0LXRva2VuLWR0Ymo1Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQubmFtZSI6ImRlZmF1bHQiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC51aWQiOiI4MzcyMzYwYS0yYjBlLTQxY2QtOTAyMy05MDUxNDY5OTU3M2EiLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6c2E6ZGVmYXVsdCJ9.FEeJ74ZDXlEMqnWaU0UlenWffN2T35RvT011p8ZX7r12k5yffn-19tZQvYDJnErB_N7XryON9FfxtcA91dkbvZA9RWNZR4eBwrePZk6jaqjdMFK12LGcffR13kTh733L2394QF47qshQAsyKAABs8SyR-d6_BiLfxNUbnefuGxWGG3nEiMGuayoyerB32Xt4bBIMo8k6JZD4JNqCb1Bzq3wdCmkSIRrzfxVSEo-eW72rsw-LkcKGdwZcmRqV-FZuTA8TP4pCnJRbuDPx9Td9M3zz_hWZ5B0FW1XkJo1wiuTrIrMj-p5Dt4aEoj0y3eNDJNdV094EgBIMqy89emOb2A

6.3创建pod验证其sa与secret 

  1. [root@master1 ~]# kubectl run nginx --image=nginx:1.15-alpine -n sa
  2. pod/nginx created
  1. [root@master1 ~]# kubectl describe pod nginx -n sa
  2. ......
  3. Mounts:
  4. /var/run/secrets/kubernetes.io/serviceaccount from default-token-dtbj5 (ro)
  5. ......
  6. Volumes:
  7. default-token-dtbj5:
  8. Type: Secret (a volume populated by a Secret)
  9. SecretName: default-token-dtbj5

说明: 创建pod不指定serviceaccount则默认使用default.

6.4创建一个SA

  1. [root@master1 ~]# kubectl create sa daniel -n sa
  2. serviceaccount/daniel created
  3. [root@master1 ~]# kubectl get sa -n sa
  4. NAME SECRETS AGE
  5. daniel 1 12s
  6. default 1 13m
  1. [root@master1 ~]# kubectl get secret -n sa
  2. NAME TYPE DATA AGE
  3. daniel-token-pjdmc kubernetes.io/service-account-token 3 18s
  4. default-token-dtbj5 kubernetes.io/service-account-token 3 13m

6.5创建pod并自定义SA

  1. [root@master1 ~]# vim sa-pod.yml
  2. apiVersion: v1
  3. kind: Pod
  4. metadata:
  5. name: nginx2
  6. namespace: sa
  7. spec:
  8. containers:
  9. - name: c1
  10. image: nginx:1.15-alpine
  11. ports:
  12. - name: httpd
  13. containerPort: 80
  14. serviceAccountName: daniel # 指定sa为daniel

6.6验证pod使用的SA

  1. [root@master1 ~]# kubectl apply -f sa-pod.yml
  2. pod/nginx2 created
  1. [root@master1 ~]# kubectl describe pod nginx2 -n sa
  2. ......
  3. Mounts:
  4. /var/run/secrets/kubernetes.io/serviceaccount from daniel-token-pjdmc (ro)
  5. ......
  6. Volumes:
  7. daniel-token-pjdmc:
  8. Type: Secret (a volume populated by a Secret)
  9. SecretName: daniel-token-pjdmc
  10. ......

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/803462
推荐阅读
相关标签
  

闽ICP备14008679号