当前位置:   article > 正文

XGBoost算法案例实战—— 金融反欺诈模型_金融产品攻击算法案例

金融产品攻击算法案例

案例背景

信用卡盗刷一般发生在持卡人信息被不法分子窃取后复制卡片进行消费或信用卡被他人冒领后激活消费的情况。一旦发生信用卡盗刷,持卡人和银行都会蒙受一定的经济损失。因此,通过大数据搭建金融反欺诈模型对银行来说尤为重要。

模型搭建

1.读取数据

  1. import pandas as pd
  2. df = pd.read_excel('信用卡交易数据.xlsx')
  3. df.head()

2.提取特征变量和目标变量 

  1. # 通过如下代码将特征变量和目标变量单独提取出来,代码如下:
  2. X = df.drop(columns='欺诈标签')
  3. y = df['欺诈标签']

3.划分训练集和测试集

  1. # 提取完特征变量后,通过如下代码将数据拆分为训练集及测试集:
  2. from sklearn.model_selection import train_test_split
  3. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)

4.模型训练及搭建

  1. # 划分为训练集和测试集之后,就可以引入XGBoost分类器进行模型训练了,代码如下:
  2. from xgboost import XGBClassifier
  3. clf = XGBClassifier(n_estimators=100, learning_rate=0.05)
  4. clf.fit(X_train, y_train)

 模型预测及评估

  1. # 模型搭建完毕后,通过如下代码预测测试集数据:
  2. y_pred = clf.predict(X_test)
  3. y_pred # 打印预测结果

  1. # 通过和之前章节类似的代码,我们可以将预测值和实际值进行对比:
  2. a = pd.DataFrame() # 创建一个空DataFrame
  3. a['预测值'] = list(y_pred)
  4. a['实际值'] = list(y_test)
  5. a.head()

 

  1. # 可以看到此时前五项的预测准确度为60%,如果想看所有测试集数据的预测准确度,可以使用如下代码:
  2. from sklearn.metrics import accuracy_score
  3. score = accuracy_score(y_pred, y_test)
  4. score

 

  1. # XGBClassifier分类器本质预测的并不是准确的01的分类,而是预测其属于某一分类的概率,可以通过predict_proba()函数查看预测属于各个分类的概率,代码如下:
  2. y_pred_proba = clf.predict_proba(X_test)
  3. print(y_pred_proba[0:5]) # 查看前5个预测的概率

 

  1. # 此时的y_pred_proba是个二维数组,其中第一列为分类为0(也即非欺诈)的概率,第二列为分类为1(也即欺诈)的概率,因此如果想查看欺诈(分类为1)的概率,可采用如下代码:
  2. # y_pred_proba[:,1] # 分类为1的概率
  3. # 下面我们利用4.3节相关代码绘制ROC曲线来评估模型预测的效果:
  4. from sklearn.metrics import roc_curve
  5. fpr, tpr, thres = roc_curve(y_test, y_pred_proba[:,1])
  6. import matplotlib.pyplot as plt
  7. plt.plot(fpr, tpr)
  8. plt.show()

  1. # 通过如下代码求出模型的AUC值:
  2. from sklearn.metrics import roc_auc_score
  3. score = roc_auc_score(y_test, y_pred_proba[:,1])
  4. score

 

  1. # 我们可以通过查看各个特征的特征重要性(feature importance)来得出信用卡欺诈行为判断中最重要的特征变量:
  2. clf.feature_importances_

  1. # 通过如下5.2.2节特征重要性相关知识点进行整理,方便结果呈现,代码如下:
  2. features = X.columns # 获取特征名称
  3. importances = clf.feature_importances_ # 获取特征重要性
  4. # 通过二维表格形式显示
  5. importances_df = pd.DataFrame()
  6. importances_df['特征名称'] = features
  7. importances_df['特征重要性'] = importances
  8. importances_df.sort_values('特征重要性', ascending=False)

 

模型参数调优 

  1. from sklearn.model_selection import GridSearchCV
  2. parameters = {'max_depth': [1, 3, 5], 'n_estimators': [50, 100, 150], 'learning_rate': [0.01, 0.05, 0.1, 0.2]} # 指定模型中参数的范围
  3. clf = XGBClassifier() # 构建模型
  4. grid_search = GridSearchCV(clf, parameters, scoring='roc_auc', cv=5)
  5. # 下面我们将数据传入网格搜索模型并输出参数最优值:
  6. grid_search.fit(X_train, y_train) # 传入数据
  7. grid_search.best_params_ # 输出参数的最优值

  1. # 下面我们根据新的参数建模,首先重新搭建XGBoost分类器,并将训练集数据传入其中:
  2. clf = XGBClassifier(max_depth=1, n_estimators=100, learning_rate=0.05)
  3. clf.fit(X_train, y_train)
  4. # 因为我们是通过ROC曲线的AUC评分作为模型评价准则来进行参数调优的,因此通过如下代码我们来查看新的AUC值:
  5. y_pred_proba = clf.predict_proba(X_test)
  6. from sklearn.metrics import roc_auc_score
  7. score = roc_auc_score(y_test, y_pred_proba[:,1])
  8. print(score)

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/371890
推荐阅读
相关标签
  

闽ICP备14008679号