当前位置:   article > 正文

K8s进阶7——Sysdig、Falco、审计日志

sysdig

一、分析容器系统调用:Sysdig

基本了解:

  • 我们常常监控分析linux系统上的资源情况时会使用到一些工具,比如strace(诊断调试)、tcpdump(网络数据采集分析)、htop(系统性能监测)、iftop(网络流量、TCP/IP连接)、lsof (列出当前系统中进程打开的所有文件)。而Sysdig就是把这些功能汇聚在一起,成为一个非常强大的系统监控、分析和故障排查工具。
  • 项目地址
  • 说明文档

Sysdig功能作用:

  1. 获取系统资源利用率、进程、网络连接、系统调用等信息。
  2. 具备分析能力,对采集的数据进行分析排序,例如:
    • 按照CPU使用率对进程排序。
    • 按照数据包对进程排序。
    • 打开最多的文件描述符进程。
    • 查看进程打开了哪些文件。
    • 查看进程的HTTP请求报文。
    • 查看机器上容器列表及资源使用情况。

工作流程:

  • 如下图,Sysdig在下方的linux内核态注册一个驱动模块,当上方的用户态对内核态进行系统调用时,Sysdig会把系统调用的信息拷贝到特定的buffer缓存区,随后用户态组件再对数据信息处理(解压、解析、过滤等),并最终通过 sysdig 命令行和用户进行交互。
    在这里插入图片描述

1.1. 安装

1.导入官方yum源的key,下载官方draios源。

[root@k8s-node1 ~]# rpm --import https://s3.amazonaws.com/download.draios.com/DRAIOS-GPG-KEY.public
[root@k8s-node1 ~]# curl -s -o /etc/yum.repos.d/draios.repo https://s3.amazonaws.com/download.draios.com/stable/rpm/draios.repo
  • 1
  • 2

2.配置epel源的目的是需要安装dkms依赖包,后安装sysdig。

[root@k8s-node1 ~]# yum install epel-release -y   
[root@k8s-node1 ~]# yum install sysdig -y
  • 1
  • 2

3.加载到内核中,加载成功可以查看到scap驱动模块。

[root@k8s-node1 ~]# scap-driver-loader 
  • 1

在这里插入图片描述

1.2 常用参数

参数释义
-L, --list列出可用于过滤和输出的字段。
-M < num_seconds >多少秒后停止收集。
-p < output_format>, --print=< output_format>,
使用-pc或-pcontainer 容器友好的格式,
使用-pk或-pkubernetes k8s友好的格式
指定打印事件时使用的格式。
-c < chiselname > < chiselargs >指定内置工具,可直接完成具体的数据聚合、分析工作。
-w < filename >保存到文件中,特定格式,要用sysdig打开。
-r < filename >从文件中读取。

1.3 采集分析

采集数据示例:

  • 59509 23:59:19.023099531 0 kubelet (1738) < epoll_ctl

采集数据格式:

  • %evt.num %evt.outputtime %evt.cpu %proc.name (%thread.tid) %evt.dir %evt.type %evt.info

字段说明:

  • evt.num: 递增的事件号。
  • evt.time: 事件发生的时间。
  • evt.cpu: 事件被捕获时所在的 CPU,也就是系统调用是在哪个 CPU 执行的。
  • proc.name: 生成事件的进程名字。
  • thread.tid: 线程的 id,如果是单线程的程序,这也是进程的 pid。
  • evt.dir: 事件的方向(direction),> 代表进入事件,< 代表退出事件。
  • evt.type: 事件的名称,比如 open、stat等,一般是系统调用。
  • evt.args: 事件的参数。如果是系统调用,这些对应着系统调用的参数

1.采集系统调用事件。

65611 05:29:20.772919597 1 sshd (22944.22944) > write fd=3(<4t>192.168.130.1:58986->192.168.130.147:22) size=4148
第一列(65611):事件编号,从1开始记录。
第二列(05:29:20.772919597):时间。
第三列(1):进程当前工作所在的cpu编号,从0开始。
第四列(sshd):进程名称。
第五列(22944.22944) :括号里是线程id,两个数值相同说明就一个线程。
第六列( > ): 进入事件,<代表退出事件。
第七列(write):事件名称。
第八列:事件信息,fd=3 是指打开的文件描述符是3,这里就是建立了一条TCP链接。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

在这里插入图片描述
2.自定义过滤条件采集数据,对系统调用的事件编号和cpu进行采集1秒。

[root@k8s-node1 ~]# sysdig -M 1 -p "%evt.num,%evt.cpu"
  • 1

在这里插入图片描述

1.4 示例

sysdig常用过滤目标:

  • fd:根据文件描述符过滤,比如 fd 标号(fd.num)、fd 名字(fd.name)
  • process:根据进程信息过滤,比如进程 id(proc.id)、进程名(proc.name)
  • evt:根据事件信息过滤,比如事件编号、事件名
  • user:根据用户信息过滤,比如用户 id、用户名、用户 home 目录
  • syslog:根据系统日志过滤,比如日志的严重程度、日志的内容
  • container:根据容器信息过滤,比如容器ID、容器名称、容器镜像

支持运算操作符:

  • =、!=、>=、>、<、<=、contains、in 、exists、and、or、not

1.4.1 查看某进程系统调用事件

1.查看kubelet进程的系统调用。

[root@k8s-node1 ~]# sysdig proc.name=kubelet
  • 1

在这里插入图片描述
2.查看calico进程的系统调用。

[root@k8s-node1 ~]# sysdig proc.name=calico
  • 1

在这里插入图片描述

1.4.2 查看建立TCP连接事件

  • tcp三次握手时,有个标识是accept。
[root@k8s-node1 ~]# sysdig evt.type=accept
  • 1

在这里插入图片描述

1.4.3 查看某目录下打开的文件描述符

1.查看/etc/当前目录下打开的文件描述符。
在这里插入图片描述
2.查看/etc/目录下所有目录打开的文件描述符。

[root@k8s-node1 ~]# sysdig fd.name contains /etc
  • 1

在这里插入图片描述

1.4.4 查看容器的系统调用

测试一:查看web1容器的系统调用,进入容器时就会有bash进程。

[root@k8s-node1 ~]# sysdig container.name=web1
  • 1

在这里插入图片描述

测试二:请求nginx,查看请求时的系统调用。

在这里插入图片描述

1.客户端请求nginx连接。

[root@k8s-node1 etc]# curl 172.17.0.2
  • 1

2.查看该nginx容器的处理系统调用。

[root@k8s-node1 ~]# sysdig container.name=web1
  • 1

调用流程:

  1. epoll多路复用。
  2. 与该nginx容器建立tcp三次握手,文件描述符为13。
  3. epoll处理请求文件,recvfrom请求会打开文件描述符13。
  4. stat获取html文件状态,openat打开html文件,并提取其中内容返回给客户端,客户端直接在网页上渲染出来。
  5. writev往tcp连接通道发送数据,并相应数据返回200。
  6. sendfile优化响应文件时的工作的性能,是nginx的特性。
  7. write fd=6写入日志。
  8. sersockopt 关闭fd=13,防止频繁打开提高工作效率。
  9. close 关闭fd=13 ,一套流程走完。
    在这里插入图片描述

在这里插入图片描述

1.5 Chisels工具

  • Chisels是个实用的工具箱,一组预定义的功能集合,用来分析特定的场景。
  • sysdig –cl 列出所有Chisels,常用的如下:
    • topprocs_cpu:输出按照 CPU 使用率排序的进程列表
    • topprocs_net:输出进程使用网络TOP
    • topprocs_file:进程读写磁盘文件TOP
    • topfiles_bytes:读写磁盘文件TOP
    • netstat:列出网络的连接情况

1.5.1 网络类

命令释义
sysdig -c topprocs_net查看使用网络的进程TOP
sysdig -c fdcount_by fd.sport “evt.type=accept” -M 10查看建立连接的端口
sysdig -c fdbytes_by fd.sport查看建立连接的端口
sysdig -c fdcount_by fd.cip “evt.type=accept” -M 10查看建立连接的IP
sysdig -c fdbytes_by fd.cip查看建立连接的IP

1.5.2 硬盘类

明林释义
sysdig -c topprocs_file查看进程磁盘I/O读写
sysdig -c fdcount_by proc.name “fd.type=file” -M 10查看进程打开的文件描述符数量
sysdig -c topfiles_bytes
sysdig -c topfiles_bytes proc.name=etcd
查看读写磁盘文件
sysdig -c fdbytes_by fd.filename “fd.directory=/tmp/”查看/tmp目录读写磁盘活动文件

1.5.3 cpu类

命令释义
sysdig -c topprocs_cpu查看CPU使用率TOP
sysdig -pc -c topprocs_cpu container.name=web
sysdig -pc -c topprocs_cpu container.id=web
查看容器CPU使用率TOP

1.5.4 容器类

命令释义
csysdig –vcontainers查看机器上容器列表及资源使用情况
sysdig -c topcontainers_cpu/topcontainers_net/topcontainers_file查看容器资源使用TOP

1.5.5 示例

1.查看当前系统cpu使用占比最高的进程。

[root@k8s-node1 ~]# sysdig -c  topprocs_cpu
  • 1

在这里插入图片描述
2.查看网络。

[root@k8s-node1 ~]# sysdig -c  topprocs_net
  • 1

在这里插入图片描述
3.查看哪些进程在磁盘读写。

[root@k8s-node1 ~]# sysdig -c  topprocs_file
  • 1

在这里插入图片描述
4.查看哪些文件在磁盘读写。

[root@k8s-node1 ~]# sysdig -c  topfiles_bytes
  • 1

在这里插入图片描述
5.查看端口被链接的数量。
在这里插入图片描述
6.查兰容器里的进程的cpu使用情况。

[root@k8s-node1 ~]# sysdig -pc -c topprocs_cpu container.name=web1
  • 1

在这里插入图片描述
7.查看本机所有容器的资源使用情况。

[root@k8s-node1 ~]# csysdig 
  • 1

在这里插入图片描述

二、监控容器运行时:Falco

基本了解:

  • Falco 是一个 Linux 安全工具,它使用系统调用来保护和监控系统。
  • Falco最初由Sysdig开发,后来加入CNCF孵化器,成为首个加入CNCF的运行时安全项目。
  • Falco提供了一组默认规则,可以监控内核态的异常行为,例如:
    • 对于系统目录/etc, /usr/bin, /usr/sbin的读写行为。
    • 文件所有权、访问权限的变更。
    • 从容器打开shell会话。
    • 容器生成新进程。
    • 特权容器启动。

工作流程:

  1. 将falco注册成系统模块采集系统调用。
  2. 规则引擎根据判断收集的系统调用是否违反了规则,通知给用户处理。
  3. 支持k8s发送的审计日志。
    在这里插入图片描述

2.1 安装

1.安装官方源和epel源,有个依赖模块。

[root@k8s-node1 ~]# rpm --import https://falco.org/repo/falcosecurity-3672BA8F.asc
[root@k8s-node1 ~]# curl -s -o /etc/yum.repos.d/falcosecurity.repo https://falco.org/repo/falcosecurity-rpm.repo
[root@k8s-node1 ~]# yum install epel-release -y

[root@k8s-node1 ~]# yum update
[root@k8s-node1 ~]# yum install falco -y
[root@k8s-node1 ~]# falco-driver-loader   ##加载到系统内核。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

在这里插入图片描述
2.查看falco默认安装目录。

  • falco.yaml:falco配置与输出告警通知方式。
  • falco_rules.yaml:规则文件,默认已经定义很多威胁场景。
  • falco_rules.local.yaml:自定义扩展规则文件。
  • k8s_audit_rules.yaml:K8s审计日志规则

在这里插入图片描述
3.启动服务。

[root@k8s-node1 falco]# systemctl start falco-custom.service
  • 1

在这里插入图片描述

2.2 规则参数

示例:

- rule: The program "sudo" is run in a container
  desc: An event will trigger every time you run sudo in a container
  condition: evt.type = execve and evt.dir=< and container.id != host and proc.name = sudo
  output: "Sudo run in container (user=%user.name %container.info parent=%proc.pnamecmdline=%proc.cmdline)"
  priority: ERROR
  tags: [users, container]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

参数说明:

  • rule:规则名称,唯一。
  • desc:规则的描述。
  • condition: 条件表达式。
  • output:符合条件事件的输出格式。
  • priority:告警的优先级。
  • tags:本条规则的 tags 分类

2.3 默认规则

威胁场景:

  1. 监控系统二进制文件目录读写(默认规则)。
  2. 监控根目录或者/root目录写入文件(默认规则)。
  3. 监控运行交互式Shell的容器(默认规则)。
  4. 监控容器创建的不可信任进程(自定义规则)

验证:

  • tail -f /var/log/messages(告警通知默认输出到标准输出和系统日志)

2.3.1 规则一

1.查看默认的规则。

[root@k8s-node1 falco]# vim falco_rules.yaml 
  • 1

在这里插入图片描述
2.验证默认规则。在系统二进制文件目录下创建一个文件,查看输入的日志。
在这里插入图片描述

2.3.2 规则二

1.查看默认规则。
在这里插入图片描述
2.验证默认规则。在root目录或根目录下创建文件,则会触发威胁,查看系统日志。
在这里插入图片描述

2.3.3 规则三

1.查看默认规则。
在这里插入图片描述
2.验证默认规则。进入容器触发规则,查看系统日志。
在这里插入图片描述

2.4 自定义规则

监控容器创建的不可信任进程规则:

- rule: Unauthorized process on nginx containers
  condition: spawned_process and container and container.image startswith nginx and not proc.name in (nginx)
  desc: test
  output: "Unauthorized process on nginx containers (user=%user.name container_name=%container.name container_id=%container.id image=%container.image.repository shell=%proc.name parent=%proc.pname cmdline=%proc.cmdline terminal=%proc.tty)"
  priority: WARNING
  • 1
  • 2
  • 3
  • 4
  • 5

condition表达式解读:

  • spawned_process:运行新进程。
  • container:指容器。
  • container.image startswith nginx:以nginx开头的容器镜像。
  • not proc.name in (nginx):不属于nginx的进程名称(允许进程名称列表)

1.定义规则,重启服务。

[root@k8s-node1 falco]# cat falco_rules.local.yaml 
# Your custom rules!

- rule: test
  condition: spawned_process and container and container.image startswith nginx and not proc.name in (nginx)
  desc: test
  output: "有异常容器启动运行 (container_name=%container.name  shell=%proc.name  parent=%proc.pname)"
  priority: WARNING

[root@k8s-node1 falco]# systemctl  restart falco-custom
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

2.测试效果,进入容器随便操作几步。
在这里插入图片描述

3.打开系统文件,测试查看实时日志,可以收集到我刚刚的操作产生的系统调用。
在这里插入图片描述
在这里插入图片描述

2.5 告警输出

五种输出告警通知的方式:

  • 输出到标准输出(默认启用),stdout_output。
  • 输出到文件,file_output。
  • 输出到系统日志(默认启用),sysout_output。
  • 输出到HTTP服务。
  • 输出到其他程序(命令行管道方式)

2.5.1 输出为日志文件

1.修改falso配置文件,关闭默认启用的两种输出方式,自定义以文件输出。

[root@k8s-node1 falco]# vim /etc/falco/falco.yaml

file_output:
enabled: true
keep_alive: false ##开启代表先把收集的日志放在缓存区,达到一定量再写入文件里。
filename: /var/log/falco_events.log

在这里插入图片描述
2.重启服务。

[root@k8s-node1 falco]# systemctl  restart falco-custom
  • 1

3.测试效果,进入容器触发规则,查看日志输出在我们自定义的文件里。
在这里插入图片描述

2.5.2 web展示

基本了解:

  • FalcoSideKick:一个集中收集并指定输出,支持大量方式输出,例如Influxdb、Elasticsearch等。项目地址
  • FalcoSideKick-UI:告警通知集中图形展示系统。项目地址

流程示意图:

  1. 每个服务器部署falco收集系统调用。
  2. 部署falcosidekick程序,收集每台服务器上的falco的系统调用信息。
  3. 通过falcosidekick-ui程序来集中展示在web页面。
  4. 告警通道:Slack/Altermanager/SMTP等
    在这里插入图片描述

1.部署展示程序,UI访问地址:http://192.168.130.145:2802/ui/。

docker run -d \
-p 2802:2802 \
--name falcosidekick-ui \
falcosecurity/falcosidekick-ui
  • 1
  • 2
  • 3
  • 4

在这里插入图片描述
2.部署收集程序,指定展示程序地址。

docker run -d \
-p 2801:2801 \
--name falcosidekick \
-e WEBUI_URL=http://192.168.130.145:2802 \   ##UI程序地址。
falcosecurity/falcosidekick
  • 1
  • 2
  • 3
  • 4
  • 5

3.修改falco配置文件指定http方式输出,更改为json输出格式,重启服务。

[root@k8s-node1 falco]# vim falco.yaml
......
json_output: true
......
http_output:
  enabled: true
  url: "http://192.168.130.145:2801/"  ##收集程序地址。
  user_agent: "falcosecurity/falco"

[root@k8s-node1 falco]# systemctl  restart falco-custom
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

4.此时再次查看web页面,显示所有服务器上收集出发规则的系统调用。
在这里插入图片描述
在这里插入图片描述

三、K8s审计日志

K8s审计日志作用:

  • 在K8s集群中,API Server的审计日志记录了哪些用户、哪些服务请求操作集群资源,并且可以编写不同规则控制忽略、存储的操作日志。
  • 审计日志采用JSON格式输出,每条日志都包含丰富的元数据,例如请求的URL、HTTP方法、客户端来源等,可以使用监控服务来分析API流量,以检测趋势或可能存在的安全隐患。

可能会访问API Server的服务:

  • 管理节点(controller-manager、scheduler)
  • 工作节点(kubelet、kube-proxy)
  • 集群服务(CoreDNS、Calico、HPA等)
  • kubectl、API、Dashboard、calico等外部组件。

收集审计日志方案:

  1. 审计日志文件+filebeat。
  2. 审计webhook+logstash。
  3. 审计webhook+falco
  4. 将审计日志以本地日志文件方式保存,Fluentd工具采集日志并存储到es中,用Kibana对其进行展示和查询。
  5. 用Logstash采集Webhook后端的审计事件,通过Logstash将来自不同用户的事件保存为文件,或将数据发送到后端存储es。

注意事项:

  1. 每个节点上收集的审计日志内容不同,比如master1上开启了审计日志,master2没开启,当pod被分配到master2时就不会记录审计日志。
  2. 日志规则是从上往下挨个走,比如上面规则是对pod限制的,下面的一个规则也是对pod的,那最终就会按照上面的规则走,下面规则不会生效。
  3. 开启审计功能会增加API Server的内存消耗量,因为此时需要额外的内存来存储每个请求的审计上下文数据,而增加的内存量与审计功能的配置有关,比如更详细的审计日志所需的内存更多。

3.1 事件阶段

基本了解:

  • 当客户端向 API Server发出请求时,该请求将经历一个或多个阶段。
  • 每个请求在不同执行阶段都会生成审计事件;这些审计事件会根据特定策略 被预处理并写入后端。策略确定要记录的内容和用来存储记录的后端。比如客户端只想拿个请求头的内容,那么就直接在request received阶段编写规则就行,不需要再往后执行,可以提高性能。

请求阶段流程图:
在这里插入图片描述

阶段说明
RequestReceived审核处理程序已收到请求。
ResponseStarted已发送响应标头,但尚未发送响应正文。
ResponseComplete响应正文已完成,不再发送任何字节。
Panic内部服务器出错,请求未完成。

3.2 日志输出方式

  1. 输出为本地文件存储。需要在apiserver配置文件添加以下参数。
    • –audit-policy-file:日志审核策略文件路径。
    • –audit-log-path:审计日志文件输出路径。不指定此标志会禁用日志后端,意味着标准化。
    • –audit-log-maxage:定义保留旧审计日志文件的最大天数。
    • –audit-log-maxbackup:定义要保留的审计日志文件的最大数量。
    • –audit-log-maxsize:定义审计日志文件轮转之前的最大大小(兆字节)。
  2. 发送给Webhook Server。需要在kube-apiserver配置文件添加以下参数,并且需要在Webhook 配置文件使用 kubeconfig 格式指定服务的远程地址和用于连接它的凭据。
    • –audit-webhook-config-file:设置 Webhook 配置文件的路径。Webhook 配置文件实际上是一个 kubeconfig 文件。
    • –audit-webhook-initial-backoff:指定在第一次失败后重发请求等待的时间。随后的请求将以指数退避重试。
    • –audit-webhook-mode:确定采用哪种模式回调通知。
      • batch:批量模式,缓存事件并以异步批量方式通知,是默认的工作模式。
      • blocking:阻塞模式,事件按顺序逐个处理,这种模式会阻塞API Server的响应,可能导致性能问题。
      • blocking-strict:与阻塞模式类似,不同的是当一个Request在RequestReceived阶段发生审计失败时,整个Request请求会被认为失败。

3.3 审核策略

基本了解:

  • K8s审核策略文件包含一系列规则,描述了记录日志的级别,采集哪些日志,不采集哪些日志。
  • 审核策略合适和rbac授权格式相同,也是写什么组里的什么资源要做什么动作。

注意事项:

  • 审计日志有级别之分,可以根据个人需求采集不同的信息,避免消耗资源。
  • 审计日志是支持写入本地文件和Webhook(发送到外部HTTP API)两种方式,可以和logstach配合玩。
  • 启用审计日志时,需要指定几个参数,比如策略文件地址、日志输出地址、输出日志大小等等,同时还需要把策略文件和日志挂载到宿主机,因为是以容器方式运行,所以需要做持久化输出。

3.3.1 日志级别

  • 请求正文指post请求,比如apply、create动作请求。
  • 相应正文,比如get动作请求。
级别说明
None不为事件创建日志条目。
Metadata创建日志条目。包括元数据,但不包括请求正文或响应正文。
Request创建日志条目。包括元数据和请求正文,但不包括响应正文。
RequestResponse创建日志条目。包括元数据、请求正文和响应正文。

3.3.2 日志格式

  • 审计日志属性:表明请求哪个API、事件id、请求方法。
  • 用户信息:用哪个身份进来的。
  • 客户端IP:从哪台机器过来请求的。
  • 用户标识对象:想访问哪个资源、资源名称、所在命名空间、所在组。
  • 响应状态:返回状态。
  • 时间注释:响应时间。
    在这里插入图片描述

3.3.3 启用审计日志

指定参数释义
audit-policy-file审计日志策略文件
audit-log-path审计日志输出文件
audit-log-maxage审计日志保留的最大天数
audit-log-maxbackup审计日志最大分片存储多少个日志文件
audit-log-maxsize单个审计日志最大大小,单位MB

1.在apiserver配置文件里添加启用审计日志参数,并且挂载策略文件和输出的日志文件。

vi /etc/kubernetes/manifests/kube-apiserver.yaml
......
- --audit-policy-file=/etc/kubernetes/audit/audit-policy.yaml
- --audit-log-path=/var/log/k8s_audit.log
- --audit-log-maxage=30
- --audit-log-maxbackup=10
- --audit-log-maxsize=100
...
volumeMounts:
...
  - mountPath: /etc/kubernetes/audit/audit-policy.yaml
    name: audit
  - mountPath: /var/log/k8s_audit.log
    name: audit-log
volumes:
  - name: audit
    hostPath:
      path: /etc/kubernetes/audit/audit-policy.yaml
      type: File
  - name: audit-log
    hostPath:
      path: /var/log/k8s_audit.log
      type: FileOrCreate
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

3.3.4 编写策略

在这里插入图片描述

3.4 案例1

1.创建日志策略存放目录/etc/kubernetes/audit,编写审计日志策略。

[root@k8s-master1 ~]# mkdir /etc/kubernetes/audit
[root@k8s-master1 ~]# cd /etc/kubernetes/audit/
[root@k8s-master1 audit]# cat audit-qingjun.yaml 
apiVersion: audit.k8s.io/v1       ##必填项。
kind: Policy
# 不要在 RequestReceived 阶段为任何请求生成审计事件。
omitStages:
  - "RequestReceived"
rules:
  # 在日志中用 RequestResponse 级别记录 Pod 变化。
  - level: RequestResponse
    resources:
    - group: ""
      # 资源 "pods" 不匹配对任何 Pod 子资源的请求,
      # 这与 RBAC 策略一致。
      resources: ["pods"]
  # 在日志中按 Metadata 级别记录 "pods/log"、"pods/status" 请求
  - level: Metadata
    resources:
    - group: ""
      resources: ["pods/log", "pods/status"]

  # 不要在日志中记录对名为 "controller-leader" 的 configmap 的请求。
  - level: None
    resources:
    - group: ""
      resources: ["configmaps"]
      resourceNames: ["controller-leader"]

  # 不要在日志中记录由 "system:kube-proxy" 发出的对端点或服务的监测请求。
  - level: None
    users: ["system:kube-proxy"]
    verbs: ["watch"]
    resources:
    - group: "" # core API 组
      resources: ["endpoints", "services"]

  # 不要在日志中记录对某些非资源 URL 路径的已认证请求。
  - level: None
    userGroups: ["system:authenticated"]
    nonResourceURLs:
    - "/api*" # 通配符匹配。
    - "/version"

  # 在日志中记录 kube-system 中 configmap 变更的请求消息体。
  - level: Request
    resources:
    - group: "" # core API 组
      resources: ["configmaps"]
    # 这个规则仅适用于 "kube-system" 名字空间中的资源。
    # 空字符串 "" 可用于选择非名字空间作用域的资源。
    namespaces: ["kube-system"]

  # 在日志中用 Metadata 级别记录所有其他名字空间中的 configmap 和 secret 变更。
  - level: Metadata
    resources:
    - group: "" # core API 组
      resources: ["secrets", "configmaps"]

  # 在日志中以 Request 级别记录所有其他 core 和 extensions 组中的资源操作。
  - level: Request
    resources:
    - group: "" # core API 组
    - group: "extensions" # 不应包括在内的组版本。

  # 一个抓取所有的规则,将在日志中以 Metadata 级别记录所有其他请求。
  - level: Metadata
    # 符合此规则的 watch 等长时间运行的请求将不会
    # 在 RequestReceived 阶段生成审计事件。
    omitStages:
      - "RequestReceived"
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71

2.编辑apiserver配置文件,指定日志策略文件、日志输出路径和日志轮转策略,并挂载策略文件和日志文件。

##添加以下几行。
[root@k8s-master1 ~]# vim /etc/kubernetes/manifests/kube-apiserver.yaml 
    - --audit-policy-file=/etc/kubernetes/audit/audit-qingjun.yaml
    - --audit-log-path=/var/log/audit-qingjun.log
    - --audit-log-maxage=30
    - --audit-log-maxbackup=10
    - --audit-log-maxsize=100
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

在这里插入图片描述
3.此时查看/var/log/qudit-qingjun.log日志文件,epel源安装jq,解析成json格式。

[root@k8s-master1 ~]# yum -y install jq
  • 1

在这里插入图片描述
在这里插入图片描述

3.5 案例2

1.当审计日志规则文件内容变更后,需要重启apiserver服务才能使修改后的规则生效,可以重启apiserver容器或杀掉它的进程。

[root@k8s-master1 audit]# cat audit-qingjun.yaml 
apiVersion: audit.k8s.io/v1
kind: Policy
omitStages:
  - "RequestReceived"
rules:
  - level: None     ##不记录以下组件日志,每个组件都会用自己的用户去访问,根据用户来限制。
    users:
      - system:apiserver
      - system:kube-controller-manager
      - system:kube-scheduler
      - system:kube-proxy
      - kubelet
  - level: Metadata     ##记录pod资源的元数据级别日志。
    resources:
    - group: ""
      resources: ["pods"]
  - level: None     ##不记录上面那些组件日志,只记录pod资源元数据级别日志之外的所有资源产生的日志都不记录。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

2.重启apiserver容器。
在这里插入图片描述
3.生成一个pod再次测试,查看审计日志。
在这里插入图片描述
4.再解析成json格式查看。

echo ' ' |jq
  • 1

在这里插入图片描述
5.添加多个策略,这里多添加了记录deployment资源的元数据、请求正文、响应正文的日志,重启apiserver容器再测试。
在这里插入图片描述
6.创建deploy资源再次测试,查看结果,可以看到资源类型、名称、对资源操作动作、还有容器相关信息。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/637368
推荐阅读
相关标签
  

闽ICP备14008679号