当前位置:   article > 正文

【2024_CUMCM】机器学习导论、不平衡分类模型(重采样)、交叉验证(附代码)

【2024_CUMCM】机器学习导论、不平衡分类模型(重采样)、交叉验证(附代码)

目录

基本概念

机器学习概念与过程

机器学习的分类

学习任务

分类与回归区分

学习方式

不平衡分类模型

什么是不平衡分类

下采样的优点和缺点

过采样的优点和缺点

交叉验证

what

过拟合

常见方法

K折交叉验证(K-Fold Cross Validation)

如何确定K值?

简单代码(用于理解过程)

留一交叉验证(Leave-One-Out Cross Validation, LOO-CV)

分层K折交叉验证(Stratified K-Fold Cross Validation)

时间序列交叉验证(Time Series Split)

 代码


基本概念

机器学习概念与过程

直观上理解,机器学习(Machine Learning,ML)是研究计算机模拟人类的学习活动,获取知识和技能的理论和方法,改善系统性能的学科。

因为计算机系统中“经验‘通常以数据的形式存在,所以机器要利用经验,就必须对数据进行分析。因此其过程可以简述如下:

建立模型:设计计算机可以自动“学习”的算法
训练:用数据训练算法模型(算法从数据中分析规律)
预测:利用训练后的算法完成任务(根据学习的规律为未知数据进行分类和预测)

机器学习的分类

学习任务

按学习任务分类,主要包括分类、回归、聚类、降维等,这里只对分类与回归作区分,其他的通过字面理解就行

分类与回归区分

连续变量的预测-->回归问题

  • 预测房价、股票、明天气温

离散变量的预测-->分类问题

  • 上不上课(上课或不上课);是否佩戴眼睛(散光、不散光)--二分类问题
  • 图像识别(识别图像中的动物种类)--多分类问题
  • 音乐推荐(一首歌曲可能同时属于多个流派)--多标签分类问题

学习方式

按学习方式分类,包括有监督学习、无监督学习、半监督学习、强化学习

人工智能导论(6)——机器学习(Machine Learning)_机器学习 人工智能导论-CSDN博客


不平衡分类模型

什么是不平衡分类

这种举例子就懂了,例如根据体检数据判断是否患病,那根据常识,不患病的人肯定说远多于患病人数;例如检测欺诈性信用卡交易。如下图所示,欺诈性交易约为400笔,而非欺诈性交易为约90000笔。

 如果对于这种不平衡模型之间进行训练,你会发现调到最后,预测出不患病的准确率接近百分百,预测患病的准确率为0,这显然是不行的

通过重采样进行解决

用于处理高度不平衡数据集的一种广泛采用的类不平衡技术称为重采样。它包括从多数类中删除样本(欠采样)和/或从少数类中添加更多样本(过采样)。

下采样的优点和缺点

优点:

  • 当训练数据集很大时,它可以通过减少训练数据样本的数量来帮助改善运行时间和存储问题。

缺点:

  • 可能会丢弃可能对构建规则分类器很重要的潜在有用信息。
  • 通过随机欠采样选择的样本可以是偏置样本。而且这并不能准确地代表整体情况。从而导致实际测试数据集的结果不准确。

过采样的优点和缺点

优点:

  • 与欠采样(under-sampling)不同,过采样不会导致信息丢失。
  • 性能优于下采样。

缺点:

  • 由于它复制了少数类事件,因此增加了过拟合的可能性

方法有多种,参考机器学习中解决不平衡分类的10种技术_类平衡技术-CSDN博客,不一一列举,根据具体情况进行使用

交叉验证

what

在建立模型时,分为两个数据集——训练集和测试集,训练集是用来训练模型,测试集就是字面理解,用于测试,不参与模型训练,只用于看模型训练效果

常常会出现,在训练集的预测效果很好,而到测试集就不太理想

训练的模型需要找出数据之间‘真正’的关系,避免‘过拟合’的情况发生。

过拟合

过拟合是指训练误差和测试误差之间的差距太大。换句换说,就是模型复杂度高于实际问题,模型在训练集上表现很好,但在测试集上却表现很差模型对训练集"死记硬背"(记住了不适用于测试集的训练集性质或特点),没有理解数据背后的规律,泛化能力差。 

交叉验证:就是在训练集中选一部分样本用于测试模型,保留一部分的训练集数据作为验证集/评估集,对训练集生成的参数进行测试,相对客观的判断这些参数对训练集之外的数据的符合程度。

常见方法

K折交叉验证(K-Fold Cross Validation)

将数据集分为K个大小相等的子集,轮流选择K-1个子集作为训练集,余下的一个子集作为验证集,进行K次训练和验证,最后计算平均性能指标. 

如何确定K值?
  • 一般情况下3、5是默认选项,常建议用K=10。
  • k值越低,就越有偏差;K值越高偏差就越小,但是会受到很大的变化。
  • k值越小,就越类似于验证集方法;而k值越大,则越接近LOOCV方法。
简单代码(用于理解过程)
  1. from sklearn.model_selection import cross_val_score
  2. from sklearn.datasets import load_iris
  3. from sklearn.linear_model import LogisticRegression
  4. # 加载数据集
  5. iris = load_iris()
  6. X, y = iris.data, iris.target
  7. # 创建模型
  8. model = LogisticRegression()
  9. # 进行5折交叉验证
  10. scores = cross_val_score(model, X, y, cv=5)
  11. # 输出每次交叉验证的得分
  12. print("每次交叉验证的得分:", scores)
  13. # 计算平均得分
  14. average_score = scores.mean()
  15. print("平均得分:", average_score)

留一交叉验证(Leave-One-Out Cross Validation, LOO-CV)

是K折交叉验证的一个特例,每次使用一个样本作为验证集,其他样本作为训练集,适用于小数据集. 

分层K折交叉验证(Stratified K-Fold Cross Validation)

分层是重新将数据排列组合,使得每一折都能比较好地代表整体。适用于分类问题,确保每个子集中各类别的比例与原始数据集中相同. 

时间序列交叉验证(Time Series Split)

适用于时间序列数据,确保训练集只包含时间序列之前的数据,验证集包含之后的数据.

 代码

以下附上实战代码,旨在了解模型预测过程

  1. # # 第四章 逻辑回归模型 - 股票客户流失预警模型
  2. # # 案例实战 - 股票客户流失预警模型
  3. # 1.读取数据
  4. import pandas as pd
  5. import sklearn.model_selection as ms
  6. import sklearn.naive_bayes as nb
  7. df = pd.read_excel('股票客户流失.xlsx')
  8. df.head()
  9. # 2.划分特征变量和目标变量
  10. X = df.drop(columns='是否流失')
  11. y = df['是否流失']
  12. # 3.划分训练集和测试集
  13. from sklearn.model_selection import train_test_split
  14. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42) # 设置random_state使得每次划分的数据一样
  15. # 模型一 逻辑回归
  16. # 网格调参
  17. from sklearn.model_selection import GridSearchCV
  18. from sklearn.linear_model import LogisticRegression
  19. import numpy as np
  20. from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score
  21. # 创建逻辑回归模型
  22. # 定义要搜索的参数网格
  23. param_grid = {
  24. 'C': np.logspace(-4, 4, 20), # 正则化强度参数C
  25. 'penalty': ['l1', 'l2'], # 惩罚类型
  26. 'solver': ['newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'], # 解算器
  27. 'max_iter': [100, 500, 1000]
  28. }
  29. # 创建逻辑回归模型
  30. lr = LogisticRegression(max_iter=1000, random_state=42)
  31. # 创建网格搜索对象
  32. grid_search = GridSearchCV(estimator=lr, param_grid=param_grid, cv=10, n_jobs=-1, scoring='accuracy')
  33. # 拟合网格搜索对象
  34. grid_search.fit(X_train, y_train)
  35. # 输出最佳参数组合
  36. print("最佳参数组合:", grid_search.best_params_)
  37. # 使用最佳参数重新训练模型
  38. best_lr = grid_search.best_estimator_
  39. # 在测试集上评估模型性能(可选)
  40. y_pred = best_lr.predict(X)
  41. accuracy = accuracy_score(y, y_pred)
  42. precision = precision_score(y, y_pred, average='macro')
  43. recall = recall_score(y, y_pred, average='macro')
  44. f1 = f1_score(y, y_pred, average='macro')
  45. print("准确率:", accuracy)
  46. print("精确率:", precision)
  47. print("召回率:", recall)
  48. print("F1分数:", f1)
  49. # # 模型二 朴素贝叶斯
  50. # model = nb.GaussianNB()
  51. # model.fit(X_train, y_train)
  52. # y_pred = model.predict(X_test)
  53. # score = accuracy_score(y_pred, y_test)
  54. # print('朴素贝叶斯',score)
  55. # # 模型三 决策树
  56. # from sklearn.tree import DecisionTreeClassifier
  57. # model = DecisionTreeClassifier()
  58. # model.fit(X_train, y_train)
  59. # y_pred = model.predict(X_test)
  60. # score = accuracy_score(y_pred, y_test)
  61. # print('决策树',score)
  62. # # 模型四 随机森林
  63. # from sklearn.ensemble import RandomForestClassifier
  64. # model = RandomForestClassifier()
  65. # model.fit(X_train, y_train)
  66. # y_pred = model.predict(X_test)
  67. # score = accuracy_score(y_pred, y_test)
  68. # print('随机森林',score)
  69. # # 模型五 KNN
  70. # from sklearn.neighbors import KNeighborsClassifier
  71. # model = KNeighborsClassifier()
  72. # model.fit(X_train, y_train)
  73. # y_pred = model.predict(X_test)
  74. # score = accuracy_score(y_pred, y_test)
  75. # print('KNN',score)
  76. # # 模型六 SVM
  77. # from sklearn.svm import SVC
  78. # model = SVC()
  79. # model.fit(X_train, y_train)
  80. # y_pred = model.predict(X_test)
  81. # score = accuracy_score(y_pred, y_test)
  82. # print('SVM',score)
  83. # # 模型七 XGBoost
  84. # from xgboost import XGBClassifier
  85. # model = XGBClassifier()
  86. # model.fit(X_train, y_train)
  87. # y_pred = model.predict(X_test)
  88. # score = accuracy_score(y_pred, y_test)
  89. # print('XGBoost',score)
  90. # # 模型八 LightGBM
  91. # from lightgbm import LGBMClassifier
  92. # model = LGBMClassifier()
  93. # model.fit(X_train, y_train)
  94. # y_pred = model.predict(X_test)
  95. # score = accuracy_score(y_pred, y_test)
  96. # print('LightGBM',score)
  97. # # 模型九 CatBoost
  98. # from catboost import CatBoostClassifier
  99. # model = CatBoostClassifier()
  100. # model.fit(X_train, y_train)
  101. # y_pred = model.predict(X_test)
  102. # score = accuracy_score(y_pred, y_test)
  103. # print('CatBoost',score)
  104. # # 模型十 集成学习
  105. # from sklearn.ensemble import VotingClassifier
  106. # model = VotingClassifier(estimators=[('lr', model), ('nb', model), ('dt', model), ('rf', model), ('knn', model), ('svm', model), ('xgb', model), ('lgb', model), ('cb', model)], voting='hard')
  107. # model.fit(X_train, y_train)
  108. # y_pred = model.predict(X_test)
  109. # score = accuracy_score(y_pred, y_test)
  110. # print('集成学习',score)
  111. # # 模型十一 模型融合
  112. # from sklearn.ensemble import StackingClassifier
  113. # model = StackingClassifier(estimators=[('lr', model), ('nb', model), ('dt', model), ('rf', model), ('knn', model), ('svm', model), ('xgb', model), ('lgb', model), ('cb', model)], final_estimator=model)
  114. # model.fit(X_train, y_train)
  115. # y_pred = model.predict(X_test)
  116. # score = accuracy_score(y_pred, y_test)
  117. # print('模型融合',score)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/829665
推荐阅读
相关标签
  

闽ICP备14008679号