当前位置:   article > 正文

异常检测之IF孤立森林实战_python 基于树的异常点检测

python 基于树的异常点检测

目录

一、原理

二、参数详解

三、实战

1、数据介绍

2、数据预处理

3、特征衍生

4、异常分析及特征筛选

5、模型构建及评估

6、类别型变量编码优化

划重点

参考


序-重要

        异常检测中,算法选择只是其中一环,前期最重要的是依据业务场景、业务目标来进行目标相关特征挖掘(如应用于信贷/交易欺诈,则需要着重挖掘欺诈特征)、把握数据分布、特征筛选、再依据特征分布情况选择合适的算法,另外部分业务场景还得考虑解释性;而异常检测本身是无监督算法,落地更适用于监督模型的辅助、而非独立决策。本系列会尽可能全面的覆盖到这些要点,也欢迎读者们交流讨论。

        

        论文地址:Isolation Forest

一、原理

        孤立森林(Isolation Forest)是一种基于树结构的异常检测算法,其原理可以简述为:通过随机选择特征和随机选择分割点的方式,将数据集逐步分割成较小的子集,直到每个子集只包含一个数据点,这样就形成了许多隔离的数据点,而异常点只需要经过较少的分割就可以被隔离出来,因此它们的路径长度会比正常点短,在所有树中平均路径越短的样本、异常得分越高。具体的计算过程如下:

  1. 构建孤立森林:设定孤立森林的树的数量和每棵树的最大深度,对于每棵树,随机选择数据集的一部分作为样本,从中随机选择特征和特征值,进行二叉树的递归分割,直到每个分支只有一个样本点或者达到树深阈值。

  2. 计算路径长度:对于每个数据点 x,在每棵树中计算其在树中的路径长度 h(x,T),并求出所有树的路径长度的平均值 h(x)。

  3. 计算异常得分:根据路径长度,计算每个数据点的异常得分 s(x),公式如下:

     其中 H(i) 是调和级数,n 是数据集中的样本数量;c(n) 是平均路径长度的期望值,公式如下:

  4. 筛选异常点:根据异常得分和预定的阈值,筛选出异常点。如果 $s(x)$ 大于阈值,则将 $x$ 视为异常点。

二、参数详解

  1. params={
  2. 'n_estimators' : 1000 , : 迭代次数、孤立树的数量
  3. 'max_samples' : 'auto' , : 每个孤立树中采样的样本数量,“auto”表示训练样本量
  4. 'contamination' : 'auto' , : 数据集中异常值的比例,“auto”表示训练样本中异常值比例
  5. 'max_features' : 1.0 , : 列采样比例
  6. 'bootstrap' : False , : 是否使用 bootstrap 重复采样
  7. 'n_jobs' : 4 , : 并行核数
  8. 'random_state' : 1 ,
  9. 'verbose' : 0 : 信息显示
  10. }

三、实战

1、数据介绍

        数据来源:使用DataFoutain上 基于UEBA的用户上网异常行为分析 比赛数据,可以从下面链接下载(需要先登录报名)、也可以关注威心公众号Python风控模型与数据分析回复 异常检测IF实战 获取

                基于UEBA的用户上网异常行为分析 Competitions - DataFountain

        赛题介绍:

        随着企业信息化水平的不断提升,数据作为一种资产成为越来越多企业的共识,企业在产业与服务、营销支持、业务运营、风险管控、信息纰漏等生产、经营、管理活动中涉及到大量的商业秘密、工作秘密以及员工和客户的隐私信息。
  目前绝大多数企业围绕敏感数据保护都出台了相关管理办法和操作行为准则,但是仍然存在导致敏感数据泄露的异常操作行为,《Securonix 2020 内部威胁报告》指出,涉及60%的内部网络安全和数据泄露事件都与企业用户的异常操作行为相关。
  为了有效保护企业敏感数据,践行企业安全操作行为准则,杜绝由异常操作行为导致的企业敏感数据泄露安全事件发生,用户异常行为分析与识别成为重难点技术之一。

        利用机器学习、深度学习,UEBA等人工智能方法,基于无标签的用户日常上网日志数据,构建用户上网行为基线和上网行为评价模型,依据上网行为与基线的距离确定偏离程度。
  (1)通过用户日常上网数据构建行为基线;
  (2)采用无监督学习模型,基于用户上网行为特征,构建上网行为评价模型,评价上网行为与基线的偏离程度。

2、数据预处理

        训练集数据量为52w+,其中ret为异常评分。对 account,group,IP,url,switchIP,port,vlan 等字段进行Label编码;从time字段提取出年、月、周、日、时等时间字段

3、特征衍生

        分别按照group、account等分组统计IP,url,switchIP,port,vlan等字段的唯一值数量,如group_IP_nunique;

        按照group、IP分组统计数据条数得到特征 group_IP_cnt,其他字段同理;        

1-3 代码部分:

  1. # 导包
  2. import re
  3. import os
  4. from sqlalchemy import create_engine
  5. import pandas as pd
  6. import numpy as np
  7. import warnings
  8. warnings.filterwarnings('ignore')
  9. import sklearn
  10. from sklearn.model_selection import train_test_split
  11. from sklearn.metrics import roc_curve,roc_auc_score
  12. from sklearn.metrics import roc_curve, auc
  13. import matplotlib.pyplot as plt
  14. import gc
  15. from sklearn import preprocessing
  16. from sklearn.preprocessing import MinMaxScaler
  17. import math
  18. from sklearn import metrics
  19. from sklearn.metrics import mean_absolute_error,mean_squared_error,r2_score
  20. import time
  21. from sklearn.model_selection import KFold,cross_val_score
  22. # 1、数据读取
  23. df=pd.read_csv('数据文件/基于UEBA的用户上网异常行为分析.csv',encoding='gbk')
  24. print(df.shape)
  25. df.head()
  26. # 2、特征编码及特征衍生
  27. def get_label_encode(df,col_list):
  28. def label_encode(df,col):
  29. value_list=list(df[col].unique())
  30. return {value:i+1 for value,i in zip(value_list,range(len(value_list)))}
  31. result={}
  32. for col in col_list:
  33. result[col]=label_encode(df,col)
  34. return result
  35. def data_label_encode(df,map_dic):
  36. df_copy=df.copy()
  37. for col in map_dic.keys():
  38. if col in df.columns:
  39. df_copy[col]=df_copy[col].map(map_dic[col])
  40. return df_copy
  41. def time_pre(df):
  42. df.time=pd.to_datetime(df.time)
  43. df['year']=df.time.dt.year
  44. df['month']=df.time.dt.month
  45. df['week']=df.time.dt.week
  46. df['day']=df.time.dt.day
  47. df['hour']=df.time.dt.hour
  48. df['minute']=df.time.dt.minute
  49. return df
  50. def fea_derive(df_copy):
  51. result=(
  52. df_copy
  53. .merge(df_copy.groupby(['group','IP']).id.count().reset_index().rename(columns={'id':'group_IP_cnt'}),how='left',on=['group','IP'])
  54. .merge(df_copy.groupby(['group','switchIP']).id.count().reset_index().rename(columns={'id':'group_switchIP_cnt'}),how='left',on=['group','switchIP'])
  55. .merge(df_copy.groupby(['group','vlan']).id.count().reset_index().rename(columns={'id':'group_vlan_cnt'}),how='left',on=['group','vlan'])
  56. .merge(df_copy.groupby(['group','port']).id.count().reset_index().rename(columns={'id':'group_port_cnt'}),how='left',on=['group','port'])
  57. .merge(df_copy.groupby(['account','IP']).id.count().reset_index().rename(columns={'id':'account_IP_cnt'}),how='left',on=['account','IP'])
  58. .merge(df_copy.groupby(['account','switchIP']).id.count().reset_index().rename(columns={'id':'account_switchIP_cnt'}),how='left',on=['account','switchIP'])
  59. .merge(df_copy.groupby(['account','vlan']).id.count().reset_index().rename(columns={'id':'account_vlan_cnt'}),how='left',on=['account','vlan'])
  60. .merge(df_copy.groupby(['account','port']).id.count().reset_index().rename(columns={'id':'account_port_cnt'}),how='left',on=['account','port'])
  61. .merge(df_copy.groupby(['group']).IP.nunique().reset_index().rename(columns={'IP':'group_IP_nunique'}),how='left',on=['group'])
  62. .merge(df_copy.groupby(['group']).switchIP.nunique().reset_index().rename(columns={'switchIP':'group_switchIP_nunique'}),how='left',on=['group'])
  63. .merge(df_copy.groupby(['group']).vlan.nunique().reset_index().rename(columns={'vlan':'group_vlan_nunique'}),how='left',on=['group'])
  64. .merge(df_copy.groupby(['group']).port.nunique().reset_index().rename(columns={'port':'group_port_nunique'}),how='left',on=['group'])
  65. .merge(df_copy.groupby(['account']).IP.nunique().reset_index().rename(columns={'IP':'account_IP_nunique'}),how='left',on=['account'])
  66. .merge(df_copy.groupby(['account']).switchIP.nunique().reset_index().rename(columns={'switchIP':'account_switchIP_nunique'}),how='left',on=['account'])
  67. .merge(df_copy.groupby(['account']).vlan.nunique().reset_index().rename(columns={'vlan':'account_vlan_nunique'}),how='left',on=['account'])
  68. .merge(df_copy.groupby(['account']).port.nunique().reset_index().rename(columns={'port':'account_port_nunique'}),how='left',on=['account'])
  69. )
  70. return result
  71. map_dic=get_label_encode(df,['account', 'group', 'IP', 'url', 'switchIP','port','vlan'])
  72. df_copy=df.pipe(data_label_encode,map_dic).pipe(time_pre).pipe(fea_derive)
  73. df_copy.head()

4、异常分析及特征筛选

        由于异常检测针对的就是数据分布,从中找到与大多数据分布不同的数据(低频值)视为异常值,因此可以考虑对特征分布情况进行统计分析。

        首先查看IP,url,switchIP,port,vlan等特征,其中url、port均存在大量低频值,这样的特征对于异常检测没有太大贡献,将其剔除;

        IP、vlan、switchIP分布正常,保留这部分特征 

        时间特征中month、week、day均为均匀分布,所以仅保留hour,如图所示,12点-23点为低频上网时段。

        cnt、nunique统计特征根据分布情况,仅保留account_IP_nunique, account_switchIP_nunique, account_port_nunique三个

  1. import pyecharts.options as opts
  2. from pyecharts.charts import Bar, Line
  3. def distribution_plot_df(df,col,plot='bar'):
  4. sta=df_copy[col].value_counts().sort_index()
  5. x,y=list(sta.index),list(sta)
  6. return distribution_plot(x,y,col,plot)
  7. def distribution_plot(x,y,col,plot='bar'):
  8. if plot=='bar':
  9. return distribution_bar(x,y,col)
  10. else:
  11. return distribution_line(x,y,col)
  12. def distribution_bar(x,y,col):
  13. bar = (
  14. Bar(init_opts=opts.InitOpts(width="700px", height="500px"))
  15. .add_xaxis(x)
  16. .add_yaxis(
  17. col,
  18. y,
  19. label_opts=opts.LabelOpts(is_show=False),
  20. markpoint_opts=opts.MarkPointOpts(
  21. label_opts=opts.LabelOpts(
  22. font_size=13,
  23. border_width=10
  24. ),
  25. ),
  26. )
  27. .set_global_opts(
  28. # title_opts=opts.TitleOpts(title=title),
  29. tooltip_opts=opts.TooltipOpts(trigger="axis"),
  30. yaxis_opts=opts.AxisOpts(
  31. splitline_opts=opts.SplitLineOpts(
  32. is_show=True, linestyle_opts=opts.LineStyleOpts(opacity=1)
  33. ),
  34. ),
  35. )
  36. )
  37. return bar
  38. def distribution_line(x,y,col):
  39. line = (
  40. Line(init_opts=opts.InitOpts(width="900px", height="500px"))
  41. .add_xaxis(x)
  42. .add_yaxis(
  43. col,
  44. y,
  45. label_opts=opts.LabelOpts(is_show=False),
  46. is_smooth=True,
  47. is_symbol_show=False,
  48. linestyle_opts=opts.LineStyleOpts(width=1.3),
  49. )
  50. .set_global_opts(
  51. # title_opts=opts.TitleOpts(title=title),
  52. tooltip_opts=opts.TooltipOpts(trigger="axis"),
  53. yaxis_opts=opts.AxisOpts(
  54. type_="value",
  55. splitline_opts=opts.SplitLineOpts(
  56. is_show=True, linestyle_opts=opts.LineStyleOpts(opacity=1)
  57. ),
  58. ),
  59. )
  60. )
  61. return line

5、模型构建及评估

        最终特征列表:account,group,hour,vlan,switchIP,IP,account_IP_nunique,account_switchIP_nunique,account_port_nunique

        按照8:2的比例划分训练集、测试集,构建IF模型进行预测,由于ret异常得分范围在0-1之间、IF预测结果在-0.2-0.1之间,所以对预测结果进行了归一化。最终分别在训练集、测试集上使用RMSE和Score进行评估,Score越趋近于1效果越好。

        真实值和预测值的分布如下,可以考虑对预测结果的分布进行调整、以逼近于目标分布

  1. from sklearn.ensemble import IsolationForest
  2. def distribution_line2(x,y1,y2): # 拟合曲线
  3. line = (
  4. Line(init_opts=opts.InitOpts(width="650px", height="400px"))
  5. .add_xaxis(x)
  6. .add_yaxis(
  7. series_name="true",
  8. y_axis=y1,
  9. label_opts=opts.LabelOpts(is_show=False),
  10. is_smooth=True,
  11. is_symbol_show=False,
  12. linestyle_opts=opts.LineStyleOpts(width=1.1),
  13. )
  14. .add_yaxis(
  15. series_name="pred",
  16. y_axis=y2,
  17. label_opts=opts.LabelOpts(is_show=False),
  18. is_smooth=True,
  19. is_symbol_show=False,
  20. linestyle_opts=opts.LineStyleOpts(width=1.1),
  21. )
  22. .set_global_opts(
  23. tooltip_opts=opts.TooltipOpts(trigger="axis"),
  24. xaxis_opts=opts.AxisOpts(
  25. type_="category",
  26. axislabel_opts=opts.LabelOpts(rotate=30)
  27. ),
  28. yaxis_opts=opts.AxisOpts(
  29. type_="value",
  30. splitline_opts=opts.SplitLineOpts(
  31. is_show=True, linestyle_opts=opts.LineStyleOpts(opacity=1)
  32. ),
  33. ),
  34. )
  35. .set_series_opts(
  36. areastyle_opts=opts.AreaStyleOpts(opacity=0.05),
  37. label_opts=opts.LabelOpts(is_show=False),
  38. )
  39. )
  40. return line
  41. def rmse_value(y_true,y_pred):
  42. mse=mean_squared_error(y_true, y_pred)
  43. rmse=mse**0.5
  44. score=1/(1+rmse)
  45. return rmse,score
  46. def get_if_model(df,fea_list): # 训练模型
  47. params={
  48. 'n_estimators' : 1000 , # 迭代次数、孤立树的数量
  49. 'max_samples' : 'auto' , # 每个孤立树中采样的样本数量,“auto”表示训练数据集的样本数量
  50. 'contamination' : 'auto' , # 数据集中异常值的比例,“auto”表示训练样本中异常值比例
  51. 'max_features' : 1.0 , # 列采样比例
  52. 'bootstrap' : False , # 是否使用 bootstrap 重复采样
  53. 'n_jobs' : 4 , # 并行核数
  54. 'random_state' : 1 ,
  55. 'verbose' : 0 # 信息显示
  56. }
  57. if_model = IsolationForest(**params)
  58. if_model.fit(df[df['sample']=='train'][fea_list])
  59. return if_model
  60. fea_list=['account', 'group', 'hour', 'vlan', 'switchIP', 'IP',
  61. 'account_IP_nunique', 'account_switchIP_nunique', 'account_port_nunique']
  62. if_model=get_if_model(df_copy,fea_list)
  63. df_copy['if_pred']=if_model.decision_function(df_copy[fea_list])
  64. scaler = MinMaxScaler()
  65. df_copy['if_pred_adjust']=1-pd.DataFrame(scaler.fit_transform(df_copy[['if_pred']]))[0]
  66. rmse_value(df_copy.ret,df_copy.if_pred_adjust)

6、类别型变量编码优化

        在 2、数据预处理 中,对IP、vlan等类别型变量直接使用的label编码,这里我们再尝试按照频数高低进行编码,把低频特征放在尾部、形成长尾分布,让孤立森林更容易将低频值的样本提前划分出来

         保持入模特征列表、模型参数不变,重新训练IF模型进行评估,测试集效果从0.8202涨到了0.8216

划重点

        关注威心公众号Python风控模型与数据分析回复 异常检测IF实战 获取本文数据、完整代码!还获取更多理论知识与代码分享

参考

        2021 CCF BDCI 成果汇编 中的参赛方案

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Li_阴宅/article/detail/855438
推荐阅读
相关标签
  

闽ICP备14008679号