当前位置:   article > 正文

【机器学习】网格搜索、随机搜索和贝叶斯搜索实用教程

贝叶斯搜索

在机器学习中,超参数是指无法从数据中学习而需要在训练前提供的参数。机器学习模型的性能在很大程度上依赖于寻找最佳超参数集。

超参数调整一般是指调整模型的超参数,这基本上是一个非常耗时的过程。在本文中,小编将和你一起研习 3 种最流行的超参数调整技术:网格搜索随机搜索贝叶斯搜索。其实还有第零种调参方法,就是手动调参,因为简单机械,就不在本文讨论范围内。为方便阅读,列出本文的结构如下:

1.获取和准备数据

2.网格搜索

3.随机搜索

4.贝叶斯搜索

5.写在最后

6761bb4667c09e407f664ba17d74471f.gif

获取和准备数据

7ab0b698821ab1117b58cd718e26afcb.gif

为演示方便,本文使用内置乳腺癌数据来训练支持向量分类(SVC)。可以通过load_breast_cancer函数获取数据。

  1. import pandas as pd
  2. from sklearn.datasets import load_breast_cancer
  3. cancer = load_breast_cancer()
  4. df_X = pd.DataFrame(cancer['data'], columns=cancer['feature_names'])
  5. df_X.head()
ca7ad92760512ec617a4ee980617cd2d.png

接下来为特征和目标标签创建df_Xdf_y,如下所示:

  1. df_y = pd.DataFrame(cancer['target'], columns=['Cancer'])
  2. df_y.head()
3a8c428f82d268455abda8fdf313e0af.png

PS :如果想了解更多关于数据集的信息,可以运行print(cancer['DESCR'])打印出摘要和特征信息。

接下来,使用training_test_split()方法将数据集拆分为训练集 (70%) 和测试集 (30%) :

  1. # train test split 
  2. from sklearn.model_selection import train_test_split 
  3. import numpy as np
  4. X_train, X_test, y_train, y_test = train_test_split(df_X, np.ravel(df_y), test_size=0.3)

我们将训练支持向量分类器(SVC) 模型。正则化参数C和核系数gamma是 SVC 中最重要的两个超参数:

  • 正则化参数C决定了正则化的强度。

  • 核系数gamma控制核的宽度。SVC默认使用径向基函数 (RBF)核(也称为高斯核)。

我们将在以下教程中调整这两个参数。

a0203954da7dc7d0b1e00d207ac75061.gif

网格搜索

8f05ec66ee6c121741e987d45d5d716b.gif

最优值Cgamma是比较难找得到的。最简单的解决方案是尝试一堆组合,看看哪种组合效果最好。这种创建参数“网格”并尝试所有可能组合的方法称为网格搜索。

506a2562b8d8c89a48c8c662e8f699c2.png
网格搜索——尝试所有可能的组合

这种方法非常常见,所以Scikit-learn在GridSearchCV中内置了这种功能。CV 代表交叉验证,这是另一种评估和改进机器学习模型的技术。

GridSearchCV需要一个描述准备尝试的参数和要训练的模型的字典。网格搜索的参数网格定义为字典,其中键是参数,值是要测试的一系列设置值。下面动手试试,首先定义候选参数Cgamma,如下所示:

  1. param_grid = { 
  2.   'C': [0.11101001000], 
  3.   'gamma': [10.10.010.0010.0001
  4. }

接下来创建一个GridSearchCV对象,并使用训练数据进行训练模型。

  1. from sklearn.model_selection import GridSearchCV
  2. from sklearn.svm import SVC
  3. grid = GridSearchCV(
  4.     SVC(), 
  5.     param_grid, 
  6.     refit=True, 
  7.     verbose=3
  8. )
804f76289fcf7e3eb9935b6bb4b4b1f4.png

一旦训练完成后,我们可以通过GridSearchCVbest_params_属性查看搜索到的最佳参数,并使用best_estimator_属性查看最佳模型:

  1. # 找到最好的参数
  2. grid.best_params_
{'C': 1, 'gamma': 0.0001}
  1. # 找到最好的模型
  2. grid.best_estimator_
SVC(C=1, gamma=0.0001)

训练完成后,现在选择并采用该网格搜索到的最佳模型,并使用测试集进行预测并创建分类报告和混淆矩阵。

  1. # 使用最好的估计器进行预测
  2. grid_predictions = grid.predict(X_test)
  3. # 混淆矩阵
  4. from sklearn.metrics import classification_report, confusion_matrix
  5. print(confusion_matrix(y_test, grid_predictions))
  1. [[ 55 5]
  2. [ 1 110]]
  1. # 分类模型报告
  2. print(classification_report(y_test, grid_predictions))
  1. precision recall f1-score support
  2. 0 0.98 0.92 0.95 60
  3. 1 0.96 0.99 0.97 111
  4. accuracy 0.96 171
  5. macro avg 0.97 0.95 0.96 171
  6. weighted avg 0.97 0.96 0.96 171

53d25ccc3c2eda5b1b8ea4c3dd1a0028.gif

随机搜索

727f4aeecd10b50deaf0f36020c36285.gif

网格搜索尝试超参数的所有组合,因此增加了计算的时间复杂度,在数据量较大,或者模型较为复杂等等情况下,可能导致不可行的计算成本,这样网格搜索调参方法就不适用了。然而,随机搜索提供更便利的替代方案,该方法只测试你选择的超参数组成的元组,并且超参数值的选择是完全随机的,如下图所示。

e2d59d59dbc5e17b87ba62b18f89db48.png
随机搜索尝试随机组合

这种方法也很常见,所以Scikit-learn在RandomizedSearchCV中内置了这种功能。函数 API 与GridSearchCV类似。

首先指定参数Cgamma以及参数值的候选样本的分布,如下所示:

  1. import scipy.stats as stats
  2. from sklearn.utils.fixes import loguniform
  3. # 指定采样的参数和分布
  4. param_dist = {
  5.   'C': stats.uniform(0.11e4),
  6.   'gamma': loguniform(1e-61e+1),
  7. }

接下来创建一个RandomizedSearchCV带参数n_iter_search的对象,并将使用训练数据来训练模型。

  1. n_iter_search = 20
  2. random_search = RandomizedSearchCV( 
  3.     SVC(), 
  4.     param_distributions=param_dist, 
  5.     n_iter=n_iter_search,
  6.     refit=True, 
  7.     verbose=3
  8. random_search.fit(X_train, y_train)
e4b59801ad889eaa1753d437f6d3dc92.png
输出示例

同样,一旦训练完成后,我们可以通过RandomizedSearchCVbest_params_属性查看搜索到的最佳参数,并使用best_estimator_属性查看得到的最佳模型:

  1. >>> random_search.best_params_
  2. {'C'559.3412579902997'gamma'0.00022332416796205752}
  3. >>> random_search.best_estimator_
  4. SVC(C=559.3412579902997, gamma=0.00022332416796205752)

预测 RandomizedSearchCV 并创建报告。

最后,我们采用最终确定的最佳随机搜索模型,并使用测试集进行预测,并创建分类报告和混淆矩阵查看模型效果。

  1. # 使用最好的估计器进行预测
  2. random_predictions = random_search.predict(X_test)
  3. from sklearn.metrics import classification_report, confusion_matrix
  4. # Confusion matrics
  5. print(confusion_matrix(y_test, random_predictions))
  1. [[ 57 3]
  2. [ 3 108]]
  1. # 分类评价报告
  2. print(classification_report(y_test, random_predictions))
  1. precision recall f1-score support
  2. 0 0.95 0.95 0.95 60
  3. 1 0.97 0.97 0.97 111
  4. accuracy 0.96 171
  5. macro avg 0.96 0.96 0.96 171
  6. weighted avg 0.96 0.96 0.96 171

a270b3e9cc224719cf53e886d9219f18.gif

贝叶斯搜索

47eab5c062f283d98fe56da3731dff60.gif

贝叶斯搜索使用贝叶斯优化技术对搜索空间进行建模,以尽快获得优化的参数值。它使用搜索空间的结构来优化搜索时间。贝叶斯搜索方法使用过去的评估结果来采样最有可能提供更好结果的新候选参数(如下图所示)。

6e505ab8496dd3cbbd8c472a3ba33e73.png
贝叶斯搜索

Scikit-Optimize[1]库带有 BayesSearchCV 实现。

首先指定参数C和gamma以及参数值的候选样本的分布,如下所示:

  1. from skopt import BayesSearchCV
  2. # 参数范围由下面的一个指定
  3. from skopt.space import Real, Categorical, Integer
  4. search_spaces = {
  5.   'C': Real(0.11e+4),
  6.   'gamma': Real(1e-61e+1'log-uniform'),
  7. }

接下来创建一个RandomizedSearchCV带参数n_iter_search的对象,并将使用训练数据来训练模型。

  1. n_iter_search = 20 
  2. bayes_search = BayesSearchCV( 
  3.     SVC(), 
  4.     search_spaces, 
  5.     n_iter=n_iter_search, 
  6.     cv=5
  7.     verbose=3 
  8. bayes_search.fit(X_train, y_train)
9b977a479eeba649cb1d47086ed2f7d3.png

同样,一旦训练完成后,我们可以通过检查发现的最佳参数BayesSearchCVbest_params_属性,并在最佳估计best_estimator_属性:

bayes_search.best_params_
  1. OrderedDict([('C', 0.25624177419852506),
  2. ('gamma', 0.00016576008531229226)])
bayes_search.best_estimator_
  1. SVC(C=0.25624177419852506,
  2. gamma=0.00016576008531229226)

最后,我们采用贝叶斯搜索模型并使用测试集创建一些预测,并为它们创建分类报告和混淆矩阵。

  1. bayes_predictions = bayes_search.predict(X_test)
  2. from sklearn.metrics import classification_report,confusion_matrix
  3. # 混淆矩阵
  4. print(confusion_matrix(y_test, bayes_predictions))
  1. [[ 51 9]
  2. [ 1 110]]
  1. # 分类评价报告
  2. print(classification_report(y_test, bayes_predictions))
  1. precision recall f1-score support
  2. 0 0.98 0.85 0.91 60
  3. 1 0.92 0.99 0.96 111
  4. accuracy 0.94 171
  5. macro avg 0.95 0.92 0.93 171
  6. weighted avg 0.94 0.94 0.94 171

4dfefadd0b7f199efb6892196027c4fe.gif

写在最后

f162c256e01a86d4d6e48a35988060d0.gif

在本文中,我们介绍了 3 种最流行的超参数优化技术,这些技术用于获得最佳超参数集,从而训练稳健的机器学习模型。

一般来说,如果组合的数量足够有限,我们可以使用网格搜索技术。但是当组合数量增加时,我们应该尝试随机搜索贝叶斯搜索,因为它们在计算上并不昂贵。

ffc7d4a9c23fb9dba60afda27dd27116.png
 
 
 
 
 
 
 
 
  1. 往期精彩回顾
  2. 适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
  3. AI基础下载黄海广老师《机器学习课程》视频课黄海广老师《机器学习课程》711页完整版课件

本站qq群554839127,加入微信群请扫码:

a34f6ffb1806839721a7dac3140a4781.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/285437
推荐阅读
相关标签
  

闽ICP备14008679号