当前位置:   article > 正文

阿里云天池大数据长期赛:金融风控-贷款违约预测(含代码)_阿里天池金融风控

阿里天池金融风控

前言

一、赛题介绍

二、数据描述性统计

2.1.读取数据

2.2.查看重复值

2.3.统计目标变量比例

2.4.查看数据的统计量

2.5.统计每个变量的种类

2.6.查看训练集与测试集的特征分布是否一致

2.7 查看数据相关性

三、数据清洗

3.1.分类变量处理

3.1.1 grade及subGrade处理

3.1.2 employmentLength处理

3.1.3 issueDate及earliesCreditLine处理

3.2 数值变量填充

3.3 保存数据

四、特征探索

4.1 PCA主成分分析

4.2 Toad: 基于 Python 的标准化评分卡模型

4.2.1  toad_quality

4.2.2  toad.selection.select

4.2.3  psi:比较训练集和测试集的变量分布之间的差异

五、数据建模

总结


前言

通过本次比赛的学习,让自己在数据分析及挖掘的技能上又有了进一步提高,虽然最终成绩只有0.7346,但这个过程的经验积累价值是不可估量的,本人是第一次处理这么大量的数据,自己摸索的同时,又不断学习许多前辈的经验,让自己在大数据处理方面又有了新的认知。


一、赛题介绍

赛题以金融风控中的个人信贷为背景,要求选手根据贷款申请人的数据信息预测其是否有违约的可能,以此判断是否通过此项贷款,这是一个典型的分类问题。通过这道赛题来引导大家了解金融风控中的一些业务背景,解决实际问题,帮助竞赛新人进行自我练习、自我提高。

该数据来自某信贷平台的贷款记录,总数据量超过120w,包含47列变量信息,其中15列为匿名变量。为了保证比赛的公平性,将会从中抽取80万条作为训练集,20万条作为测试集A,20万条作为测试集B,同时会对employmentTitle、purpose、postCode和title等信息进行脱敏。

数据变量特征解释如下

二、数据描述性统计

2.1.读取数据

  1. import pandas as pd # 数据分布统计
  2. df=pd.read_csv("/train.csv")
  3. test=pd.read_csv("/testA.csv")
  4. df.shape

(800000, 47)  训练集有80万个样本,47个变量

2.2.查看重复值

df[df.duplicated()==True]#打印重复值

0 rows × 47 columns  无重复值

2.3.统计目标变量比例

(df['isDefault'].value_counts()/len(df)).round(2)
0    0.8
1    0.2

目标变量比例1:4,样本类别不平衡

2.4.查看数据的统计量

df.describe().T

n系列特征都有缺失,贷款金额及年收入等涉及金额的数据标准差都比较大,波动性大 。

2.5.统计每个变量的种类

  1. df.nunique()
  2. df=df.drop(['id','policyCode'],axis=1) # 删除ID列及只有一个值的policyCode列

2.6.查看训练集与测试集的特征分布是否一致

  1. # 分离数值变量与分类变量
  2. Nu_feature = list(df.select_dtypes(exclude=['object']).columns) # 数值变量
  3. Ca_feature = list(df.select_dtypes(include=['object']).columns)
  4. # 查看数值型训练集与测试集分布
  5. Nu_feature.remove('isDefault') # 移除目标变量
  6. # 画图
  7. import matplotlib.pyplot as plt
  8. import seaborn as sns
  9. import warnings
  10. warnings.filterwarnings("ignore")
  11. plt.figure(figsize=(30,30))
  12. i=1
  13. for col in Nu_feature:
  14. ax=plt.subplot(8,5,i)
  15. ax=sns.distplot(df[col],color='violet')
  16. ax=sns.distplot(test[col],color='lime')
  17. ax.set_xlabel(col)
  18. ax.set_ylabel('Frequency')
  19. ax=ax.legend(['train','test'])
  20. i+=1
  21. plt.show()

由于变量较多,只展示了部分变量,分布是一致的, 如果训练集与测试集分布不一致,会影响模型泛化性能,就好比训练的是老人的特征,结果是预测小孩的特征。

2.7 查看数据相关性

  1. plt.figure(figsize=(10,8))
  2. train_corr=df.corr()
  3. sns.heatmap(train_corr,vmax=0.8,linewidths=0.05,cmap="Blues")

 部分特征相关性比较高,目标变量与特征变量之间没有特别高的相关性

三、数据清洗

3.1.分类变量处理

Ca_feature:['grade', 'subGrade', 'employmentLength', 'issueDate', 'earliesCreditLine']

3.1.1 grade及subGrade处理

  1. from sklearn.preprocessing import LabelEncoder
  2. lb = LabelEncoder()
  3. cols = ['grade','subGrade']
  4. for j in cols:
  5. df[j] = lb.fit_transform(df[j])
  6. df[cols].head()
  7. #grade及subGrade是有严格的字母顺序的,与测试集相对应,可以直接用编码转换,转换结果如下
  8. grade subGrade
  9. 0 4 21
  10. 1 3 16
  11. 2 3 17
  12. 3 0 3
  13. 4 2 11

3.1.2 employmentLength处理

  1. # 年限转化为数字,在进行缺失值填充
  2. df['employmentLength']=df['employmentLength'].str.replace(' years','').str.replace(' year','').str.replace('+','').replace('< 1',0)
  3. # 随机森林填补年限缺失值 由于分类变量只有年限有缺失,所以这样填充
  4. from sklearn.tree import DecisionTreeClassifier
  5. DTC = DecisionTreeClassifier()
  6. empLenNotNull = df.employmentLength.notnull()
  7. columns = ['loanAmnt','grade','interestRate','annualIncome','homeOwnership','term','regionCode']
  8. # regionCode变量加入后,准确度从0.85提升至0.97
  9. DTC.fit(df.loc[empLenNotNull,columns], df.employmentLength[empLenNotNull])
  10. print(DTC.score(df.loc[empLenNotNull,columns], df.employmentLength[empLenNotNull]))
  11. # DTC.score:0.9828872204324179
  12. # 填充
  13. for data in [df]:
  14. empLen_pred = DTC.predict(data.loc[:,columns]) # 对年限数据进行预测
  15. empLenIsNull = data.employmentLength.isnull() # 判断是否为空值,isnull返回的是布尔值
  16. data.employmentLength[empLenIsNull] = empLen_pred[empLenIsNull] # 如果是空值进行填充
  17. # 转化为整数
  18. df['employmentLength']=df['employmentLength'].astype('int64')

3.1.3 issueDate及earliesCreditLine处理

  1. import datetime
  2. df['issueDate']=pd.to_datetime(df['issueDate'])
  3. df['issueDate_year']=df['issueDate'].dt.year.astype('int64')
  4. df['issueDate_month']=df['issueDate'].dt.month.astype('int64')
  5. df['earliesCreditLine']=pd.to_datetime(df['earliesCreditLine']) # 先在EXCEL上转化为日期
  6. df['earliesCreditLine_year']=df['earliesCreditLine'].dt.year.astype('int64')
  7. df['earliesCreditLine_month']=df['earliesCreditLine'].dt.month.astype('int64')
  8. df=df.drop(['issueDate','earliesCreditLine'],axis=1)
  9. # issueDate及earliesCreditLine两个变量将日期分解,分别提取‘年’和‘月’并转化为整数便于计算,由于测试集这两个变量的‘日’都是1,对目标变量没有影向,所以训练集不提取,提取完后将这两个原始变量删除

3.2 数值变量填充

  1. df[Nu_feature] = df[Nu_feature].fillna(df[Nu_feature].median())
  2. # 考虑平均值易受极值影响,数值变量用中位数填充

3.3 保存数据

df.to_csv("/df2.csv")

说明:测试集也需要做相同的处理

四、特征探索

4.1 PCA主成分分析

  1. from sklearn.decomposition import PCA
  2. pca = PCA()
  3. X1=df2.drop(columns='isDefault')
  4. df_pca_train = pca.fit_transform(X1)
  5. pca_var_ration = pca.explained_variance_ratio_
  6. pca_cumsum_var_ration = np.cumsum(pca.explained_variance_ratio_)
  7. print("PCA 累计解释方差")
  8. print(pca_cumsum_var_ration)
  9. x=range(len(pca_cumsum_var_ration))
  10. plt.scatter(x,pca_cumsum_var_ration)
  11. ###################
  12. PCA 累计解释方差
  13. [0.6785479 0.96528967 0.99287836 0.99667955 0.9999971 0.99999948
  14. 0.99999985 0.99999993 0.99999995 0.99999996 0.99999998 0.99999998
  15. 0.99999999 0.99999999 0.99999999 1. 1. 1.
  16. 1. 1. 1. 1. 1. 1.
  17. 1. 1. 1. 1. 1. 1.
  18. 1. 1. 1. 1. 1. 1.
  19. 1. 1. 1. 1. 1. 1.
  20. 1. 1. 1. ]

可以看到前两个变量累计就达到接近1的方差贡献率,降维效果明显,但不适用于建模。

4.2 Toad: 基于 Python 的标准化评分卡模型

4.2.1  toad_quality

  1. import toad
  2. toad_quality = toad.quality(df2, target='isDefault', iv_only=True)
  3. # 计算各种评估指标,如iv值、gini指数,entropy熵,以及unique values,结果以iv值排序
  4. # iv
  5. subGrade 0.485106565
  6. interestRate 0.463530061
  7. grade 0.463476859
  8. term 0.172635079
  9. ficoRangeLow 0.125252862
  10. ficoRangeHigh 0.125252862
  11. dti 0.072902752
  12. verificationStatus 0.054518912
  13. n14 0.045646121
  14. loanAmnt 0.040412211
  15. installment 0.039444828
  16. title 0.034895535
  17. issueDate_year 0.034170341
  18. homeOwnership 0.031995853
  19. n2 0.031194387
  20. n3 0.031194387
  21. annualIncome 0.030305725
  22. n9 0.029678353
  23. employmentTitle 0.028019829
  24. revolUtil 0.025677543

上面展示了IV值大于0.02的特征,IV值小于0.02的特征对目标变量几乎没有作用,本人已测试仅用上述特征建模,模型效果没有全部特征好

4.2.2 toad.selection.select

  1. selected_data, drop_lst= toad.selection.select(df2,target = 'isDefault', empty = 0.5, iv = 0.02, corr=0.7,return_drop=True)
  2. # 筛选空值率>0.5,IV<0.02,相关性大于0.7的特征
  3. # (800000, 15) 保留了15个特征
  4. # 以下是删除的特征,通过return_drop=True显示
  5. {'empty': array([], dtype=float64),
  6. 'iv': array(['employmentLength', 'purpose', 'postCode', 'regionCode',
  7. 'delinquency_2years', 'openAcc', 'pubRec', 'pubRecBankruptcies',
  8. 'revolBal', 'totalAcc', 'initialListStatus', 'applicationType',
  9. 'n0', 'n1', 'n4', 'n5', 'n6', 'n7', 'n8', 'n10', 'n11', 'n12',
  10. 'n13', 'issueDate_month', 'earliesCreditLine_year',
  11. 'earliesCreditLine_month'], dtype=object),
  12. 'corr': array(['n9', 'grade', 'n3', 'installment', 'ficoRangeHigh',
  13. 'interestRate'], dtype=object)}

通过筛选的特征用于建模,效果也不好

4.2.3  psi:比较训练集和测试集的变量分布之间的差异

  1. psi = toad.metrics.PSI(df2,testA) # psi没有大于0.25的,都比较稳定
  2. psi.sort_values(0,ascending=False)
  3. ##############部分结果展示##############
  4. revolBal 2.330739e-01
  5. installment 1.916890e-01
  6. employmentTitle 1.513944e-01
  7. employmentLength 6.919465e-02
  8. annualIncome 4.075954e-02
  9. dti 2.810131e-02
  10. title 1.875967e-02

特征工程是机器学习中不可或缺的一部分,也是十分庞杂的工程,本人也只是做了简单的尝试。

五、数据建模

本人对比了xgboost及catboost,最终选择了catboost,尝试结果如下:

RandomForestClassifier+xgboostAUC  测试0.721/线上0.71
xgboost+toadAUC  测试0.722
catboost+toadAUC  测试0.727
catboost+类别变量AUC  测试0.736/线上0.72
catboost+5KFold+500iterationsAUC  测试0.734/线上0.728
catboost+3KFold+300iterations+增加类别变量AUC  测试0.738/线上0.7346
  1. from sklearn.metrics import roc_auc_score
  2. from sklearn.model_selection import train_test_split
  3. from catboost import CatBoostClassifier
  4. from sklearn.model_selection import KFold
  5. train=pd.read_csv("/df2.csv")
  6. testA2=pd.read_csv("/testA.csv")
  7. # 选取相关变量做分类变量并转化为字符串格式
  8. col=['grade','subGrade','employmentTitle','homeOwnership','verificationStatus','purpose','issueDate_year','postCode','regionCode','earliesCreditLine_year','issueDate_month','earliesCreditLine_month','initialListStatus','applicationType']
  9. for i in train.columns:
  10. if i in col:
  11. train[i] = train[i].astype('str')
  12. for i in testA2.columns:
  13. if i in col:
  14. testA2[i] = testA2[i].astype('str')
  15. # 划分特征变量与目标变量
  16. X=train.drop(columns='isDefault')
  17. Y=train['isDefault']
  18. # 划分训练及测试集
  19. x_train,x_test,y_train,y_test=train_test_split(X,Y,test_size=0.2,random_state=123)
  20. # 模型训练
  21. clf=CatBoostClassifier(
  22. loss_function="Logloss",
  23. eval_metric="AUC",
  24. task_type="CPU",
  25. learning_rate=0.1,
  26. iterations=300,
  27. random_seed=2022,
  28. od_type="Iter",
  29. depth=7)
  30. result = []
  31. mean_score = 0
  32. n_folds=3
  33. kf = KFold(n_splits=n_folds ,shuffle=True,random_state=2022)
  34. for train_index, test_index in kf.split(X):
  35. x_train = X.iloc[train_index]
  36. y_train = Y.iloc[train_index]
  37. x_test = X.iloc[test_index]
  38. y_test = Y.iloc[test_index]
  39. clf.fit(x_train,y_train,verbose=300,cat_features=col)
  40. y_pred=clf.predict_proba(x_test)[:,1]
  41. print('验证集auc:{}'.format(roc_auc_score(y_test, y_pred)))
  42. mean_score += roc_auc_score(y_test, y_pred) / n_folds
  43. y_pred_final = clf.predict_proba(testA2)[:,-1]
  44. result.append(y_pred_final)
  45. # 模型评估
  46. print('mean 验证集Auc:{}'.format(mean_score))
  47. cat_pre=sum(result)/n_folds
  48. # 结果
  49. 0: total: 3.13s remaining: 15m 35s
  50. 299: total: 9m 15s remaining: 0us
  51. 验证集auc:0.7388007571702323
  52. 0: total: 2.08s remaining: 10m 20s
  53. 299: total: 9m 45s remaining: 0us
  54. 验证集auc:0.7374681864389327
  55. 0: total: 1.73s remaining: 8m 38s
  56. 299: total: 9m 22s remaining: 0us
  57. 验证集auc:0.7402961974320663
  58. mean 验证集Auc:0.7388550470137438

说明:catboost能高效合理地处理类别型特征,只需要使用cat_features 参数指定分类特征即可,加入的类别特征越多,计算也越耗时,但效果也有一定提升。可以看出3次交叉验证跑完就耗时接近半小时,还只是在iterations=300的情况下,由于本人PC能力有限,所以参数方面就没有过多的调整测试,对于大数据目标变量的预测,交叉验证是必不可少的,可以通过训练集与测试集的不同划分,让模型进行更多的学习,同时通过每一次的预测结果最后平均,使结果更加稳定。


总结

1.关于样本平衡的问题,imbalanced_ensemble是个不错的尝试,该库有很多平衡样本的方法,本人已经试过OverBoostClassifier、BorderlineSMOTE、SPE的方法来平衡类别,过采样容易增加噪声,导致训练集表现不错,测试集一般,同时会导致小样本量预测失准,降采样容易导致对大样本量学习不足,但并不代表平衡样本的方法就不适用,还需要不断摸索。

2.对于缺失值的问题,一般都是数值型变量用中位数填充,类别变量用众数填充,还可以通过回归模型选取相关变量进行预测,可能会有惊喜。

3.此类风控预测如果能够结合业务人员的经验对变量进行筛选和补充,相信会有不一样的结果。

4.关于特征降维还有很多方法可以尝试,PCA只是其中一种,特征工程也是一个庞杂的体系,需要不断学习。

5.关于模型调参,可以适当提高预测精度,如果时间允许,可以组合测试参数。

6.参赛的过程大于结果,从中学到的知识和经验会为我今后大数据处理打下基础。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/945608
推荐阅读
相关标签
  

闽ICP备14008679号