当前位置:   article > 正文

【python】多种回归算法对比气温预测

【python】多种回归算法对比气温预测

目录

引言

决策树回归(Decision Tree Regression)

线性回归(Linear Regression)

随机森林回归(Random Forest Regression)

气温预测对比实例

数据集

预测值与实际值对比图

模型评价指标

代码实现


引言

决策树回归(Decision Tree Regression)

定义与原理

  • 决策树回归是一种非参数监督学习方法,它使用树形结构来对目标变量进行预测。与线性回归模型不同,决策树回归不需要预先假设数据的分布形式,因此能够很好地处理非线性和高维数据。
  • 决策树回归通过递归地将数据集划分为更小的子集,并在每个子集上构建简单的预测模型。树中的每个节点表示一个特征,节点的分裂则是根据该特征的某个阈值将数据集分成两部分。树的叶子节点包含目标变量的预测值。

构建过程

  1. 选择最优分裂点:选择一个特征及其相应的分裂点,使得数据集在该特征上的分裂能最大程度地减少目标变量的方差(或均方误差)。
  2. 递归分裂:在每个分裂的子集上重复上述过程,直到满足停止条件(如达到最大深度或叶节点样本数量小于某个阈值)。
  3. 生成叶子节点:停止分裂后,叶子节点的值设为该子集上目标变量的均值。

优缺点

  • 优点
    • 简单易理解,可视化效果好。
    • 对数据预处理要求较低(无需归一化或标准化)。
    • 能处理多种数据类型(数值型、分类型)。
    • 适用于处理非线性关系。
  • 缺点
    • 容易过拟合,特别是树的深度较大时。
    • 对小数据集敏感,容易产生较大波动。
    • 在某些情况下,结果不稳定(对噪声数据敏感)。

应用场景

决策树回归在金融、医疗、零售等领域都有广泛的应用,如预测股票价格、货币汇率、疾病风险、药物反应、销量预测等。

线性回归(Linear Regression)

定义

  • 线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w'x + e,其中e为误差项,服从均值为0的正态分布。

类型

  • 如果回归分析中只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。
  • 如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

方法

  • 线性回归模型经常用最小二乘逼近来拟合,即找到一条直线,使得所有观测点到这条直线的垂直距离的平方和最小。

优缺点

  • 优点
    • 模型简单,易于理解和解释。
    • 计算简便,适合大规模数据处理。
    • 适用于线性关系明显的数据。
  • 缺点
    • 无法处理非线性关系。
    • 对异常值较为敏感。
    • 需要预先假设数据的线性关系。

应用场景

线性回归在金融、经济学、流行病学等领域有广泛应用,如预测消费支出、固定投资支出、股票价格趋势等。

随机森林回归(Random Forest Regression)

定义与原理

  • 随机森林回归是一种集成学习方法,通过构建多个决策树并将它们的预测结果进行平均,来提高模型的稳定性和预测准确性。它通过引入随机性来增强模型的泛化能力,有效减轻了单棵决策树容易过拟合的问题。

构建过程

  1. 随机采样:从原始训练数据集中有放回地随机抽样,生成多个子数据集(Bootstrap样本)。
  2. 决策树构建:对每个子数据集构建一棵决策树。在每个节点分裂时,随机选择特征的一个子集,并在其中选择最佳特征进行分裂。
  3. 集成预测:对于新的输入数据,通过所有决策树进行预测,然后对结果进行平均(对于回归问题)或投票(对于分类问题)。

优缺点

  • 优点
    • 高精度:通过集成多个决策树,通常能取得比单棵决策树更高的预测精度。
    • 抗过拟合:由于多个决策树的结果是平均的,可以有效减轻过拟合现象。
    • 鲁棒性:对数据中的噪声和缺失值具有较强的鲁棒性。
    • 处理高维数据:能够处理大量特征,并能评估特征的重要性。
  • 缺点
    • 计算开销大:构建多个决策树的计算开销较大。
    • 模型解释性差:由于结果是多个决策树的平均,难以解释具体的决策路径。

应用场景

随机森林回归在金融、医疗、生物信息学等领域有广泛应用,如预测股票价格、疾病风险、基因表达等。

气温预测对比实例

数据集

预测值与实际值对比图

模型评价指标

  • MSE(均方误差):衡量模型预测值与真实值之间差异的平方的平均值。MSE越小,表示模型预测越准确。
  • MAE(平均绝对误差):衡量模型预测值与真实值之间差异的平均值的绝对值。MAE同样越小越好。
  • R²分数(R² score):表示模型对数据的拟合程度。R²分数的值范围从负无穷大到1,其中1表示完美预测,0表示模型的表现与简单预测(如平均值)相同,而负值则表示模型表现比简单预测还差。

代码实现

  1. import pandas as pd
  2. from sklearn.tree import DecisionTreeRegressor
  3. from sklearn.linear_model import LinearRegression
  4. from sklearn.ensemble import RandomForestRegressor
  5. from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score
  6. import numpy as np
  7. # 加载数据集
  8. data = pd.read_csv("气温.csv")
  9. # 数据预处理
  10. data['date'] = pd.to_datetime(data[['year', 'month', 'day']])
  11. # 根据日期划分数据集
  12. train_mask = (data['date'] >= '2020-01-01') & (data['date'] <= '2022-11-30')
  13. val_mask = (data['date'] >= '2022-12-01') & (data['date'] <= '2022-12-31')
  14. test_mask = (data['date'] >= '2023-01-01') & (data['date'] <= '2023-12-31')
  15. train_data = data[train_mask] # 训练集
  16. val_data = data[val_mask] # 验证集
  17. test_data = data[test_mask] # 测试集
  18. # 特征工程:将年份、月份、日期作为特征,实际气温为目标变量
  19. X_train = train_data[['year', 'month', 'day']]
  20. y_train = train_data['average']
  21. X_val = val_data[['year', 'month', 'day']]
  22. y_val = val_data['average']
  23. X_test = test_data[['year', 'month', 'day']]
  24. y_test = test_data['average']
  25. #决策树回归
  26. dtr = DecisionTreeRegressor(random_state=42)
  27. dtr.fit(X_train, y_train)
  28. y_pred_dtr = dtr.predict(X_test)
  29. # 线性回归
  30. lr = LinearRegression()
  31. lr.fit(X_train, y_train)
  32. y_pred_lr = lr.predict(X_test)
  33. # 随机森林回归
  34. rfr = RandomForestRegressor(n_estimators=100, random_state=42)
  35. rfr.fit(X_train, y_train)
  36. y_pred_rfr = rfr.predict(X_test)
  37. # 为可视化创建一个画布和三个子图
  38. fig, axs = plt.subplots(3, 1, figsize=(10, 15))
  39. # 决策树回归的预测结果与实际值对比
  40. axs[0].scatter(y_test, y_pred_dtr, color='blue', alpha=0.5)
  41. axs[0].set_title('Decision Tree Regression Predictions vs Actual')
  42. axs[0].set_xlabel('Actual Values')
  43. axs[0].set_ylabel('Predicted Values')
  44. axs[0].plot([np.min((y_test.min(), y_pred_dtr.min())), np.max((y_test.max(), y_pred_dtr.max()))],
  45. [np.min((y_test.min(), y_pred_dtr.min())), np.max((y_test.max(), y_pred_dtr.max()))], 'r--')
  46. # 线性回归的预测结果与实际值对比
  47. axs[1].scatter(y_test, y_pred_lr, color='green', alpha=0.5)
  48. axs[1].set_title('Linear Regression Predictions vs Actual')
  49. axs[1].set_xlabel('Actual Values')
  50. axs[1].set_ylabel('Predicted Values')
  51. axs[1].plot([np.min((y_test.min(), y_pred_lr.min())), np.max((y_test.max(), y_pred_lr.max()))],
  52. [np.min((y_test.min(), y_pred_lr.min())), np.max((y_test.max(), y_pred_lr.max()))], 'r--')
  53. # 随机森林回归的预测结果与实际值对比
  54. axs[2].scatter(y_test, y_pred_rfr, color='red', alpha=0.5)
  55. axs[2].set_title('Random Forest Regression Predictions vs Actual')
  56. axs[2].set_xlabel('Actual Values')
  57. axs[2].set_ylabel('Predicted Values')
  58. axs[2].plot([np.min((y_test.min(), y_pred_rfr.min())), np.max((y_test.max(), y_pred_rfr.max()))],
  59. [np.min((y_test.min(), y_pred_rfr.min())), np.max((y_test.max(), y_pred_rfr.max()))], 'r--')
  60. # 显示整个画布上的图形
  61. plt.tight_layout()
  62. plt.show()
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/天景科技苑/article/detail/843966
推荐阅读
相关标签
  

闽ICP备14008679号