当前位置:   article > 正文

【视频讲解】Python比赛LightGBM、XGBoost+GPU和CatBoost预测学生在游戏学习过程表现|数据代码分享...

【视频讲解】Python比赛LightGBM、XGBoost+GPU和CatBoost预测学生在游戏学习过程表现|数据代码分享...


全文链接:https://tecdat.cn/?p=36990

分析师:Qi Zhang

基于游戏进行学习能让学校变得有趣,这种教育方法能让学生在游戏中学习,使其变得有趣和充满活力。尽管基于游戏的学习正在越来越多的教育环境中使用,但能用应用数据科学和学习分析原理来改进基于游戏学习的数据集仍然有限点击文末“阅读原文”获取完整代码数据)。

大多数基于游戏的学习平台没有充分利用知识追踪来支持个别学生。知识追踪方法是在在线学习环境和智能辅导系统的背景下开发和研究的。但教育游戏中对知识追踪的关注较少。

视频

数据

本次使用了时间序列API。测试数据将分组交付,不允许访问未来的数据。目的是利用在线教育游戏生成的时间序列数据来判断玩家是否会正确回答问题。共有三个问题检查点(level 4, level 12, and level 22),每个检查点都有许多问题。在每个检查点,您都可以访问该部分之前的所有测试数据。

任务

本次比赛的目标是实时预测学生在游戏学习过程中的表现。将开发一个在最大的开放游戏日志数据集上的模型查看文末了解数据、代码免费获取方式

评价指标

使用F1 score作为评价指标,用来计算参赛者提交结果的成绩,具体计算方式如下:
F_1=2/(recall(-1)+precision(-1) )=2tp/(2tp+fp+fn).

数据探索

数据文件达到了4.74GB,需要先理解每个字段的意义,在了解每个字段的意义后才能更好地进行特征组合及后续建模。

字段类别含义

train.csv与test.csv中的字段及含义
session_id:每个游戏段所对应的唯一ID,例如:20090312431273200
index:每个session中一系列事件的索引:0、1、2…
elapsed_time:从这个游戏段开始到这个事件发生时所过去的时间(单位毫秒)
event_name:事件类型名称,例如:cutscene_click
name:事件名称,例如:basic
level:事件发生的游戏级别(0-22)
page:事件中笔记本的第几页(仅仅在笔记本相关事件中出现)
room_coor_x:相对于游戏房间的点击x轴坐标(仅适用于点击事件)
room_coor_y:相对于游戏房间的点击y轴坐标(仅适用于点击事件)
screen_coor_x:参考玩家屏幕的点击x轴坐标(仅适用于点击事件)
screen_coor_y:参考玩家屏幕的点击y轴坐标(仅适用于点击事件)
hover_duration:悬停发生的时间(以毫秒为单位)(仅适用于悬停事件)
text:玩家在此事件中看到的文本,例如:What cha doing over there, Jo?
fqid:事件的完全限定 ID,例如:intro
room_fqid:事件发生的房间完全ID,例如:tunic.historicalsociety.closet
text_fqid:文本的完全ID,例如tunic.historicalsociety.closet.intro
fullscreen:玩家是否全屏玩游戏0/1
hq:玩家是否开启高清模式玩游戏0/1
music:玩家是否在游戏中打开声音0/1
level_group:该数据行属于哪一组级别以及哪组问题(0-4、5-12、13-22)

train_labels.csv字段及含义
session_id:每个游戏段所对应的唯一ID的问题,例如:20090312431273200_q1代表了序列为20090312431273200第一个问题的回答情况。
correct:每个序列对应问题回答正确与否,即我们需要进行预测的值

统计特征

我们根据每个玩家所有序列中下一个elapsed_time和上一个的差值得到elapsed_time_diff,代表该玩家在进行某个事件所花费的时间。在去除字段hq、music和music后可以发现 ‘event_name’, ‘name’, ‘fqid’, ‘room_fqid’, 'text_fqid’为分类字段,‘page’, ‘room_coor_x’, ‘room_coor_y’, ‘screen_coor_x’, ‘screen_coor_y’, ‘hover_duration’, 'elapsed_time_diff’为数值字段。
根据ONELUX的开源代码,我们得到包含event_name 、name 、fqid、room_fqid、text_fqid所有值的列表,MATSAMAN也给出了一个包含游戏文本中所有语气词的列表DIALOGS = [‘that’, ‘this’, ‘it’, ‘you’, ‘find’, ‘found’, ‘Found’, ‘notebook’, ‘Wells’,‘wells’,‘help’,‘need’, ‘Oh’,‘Ooh’,‘Jo’, ‘flag’, ‘can’,‘and’,‘is’,‘the’,‘to’]。
基于比pandas占用内存更小的polars库,我们可以构造特征:

模型训练

对于每个玩家需要预测的18个问题,我们均使用五折训练,一共需要训练18*5个模型,其中level_group为0-4对应问题1、2、3,level_group为5-12对应问题4-13,level_group为13-22对应问题14-18。本次比赛选取的模型均为树模型,包括LightGBM、XGBoost和CatBoost。

LightGBM模型训练

Lgb超参数我们设置为:

  1. lgb_params = {
  2. 'boosting_type': 'gbdt',
  3. 'objective': 'binary',
  4. 'metric': 'binary_logloss',
  5. 'learning_rate': 0.05,
  6. 'alpha': 8,
  7. 'max_depth': 4,
  8. 'subsample': 0.8,
  9. 'colsample_bytree': 0.5,
  10. 'random_state': 42
  11. }

以下是lgb的训练代码:

  1. pred_lgb = np.zeros((df1.shape[0], 18))
  2. n_splits = 5
  3. kf = KFold(n_splits=n_splits)
  4. for q in range(1, 19):
  5. if q <= 3:
  6. grp = '0-4'
  7. df = df1
  8. FEATURES = FEATURES1
  9. elif q <= 13:
  10. grp = '5-12'
  11. df = df2
  12. FEATURES = FEATURES2
  13. elif q <= 22:
  14. grp = '13-22'
  15. df = df3
  16. FEATURES = FEATURES3
  17. lgb_params['n_estimators'] = estimators_lgb[q - 1]
  18. for fold, (train_idx, val_idx) in enumerate(kf.split(df)):
  19. df_train = df.iloc[train_idx] #.reset_index(drop=True)
  20. train_users = df_train.index.values
  21. train_y = targets[targets['session'].isin(list(train_users))].loc[targets.q == q].set_index('session')
  22. df_val = df.iloc[val_idx] #.reset_index(drop=True)
  23. val_users = df_val.index.values
  24. val_y = targets[targets['session'].isin(list(val_users))].loc[targets.q == q].set_index('session')
  25. clf = LGBMClassifier(**lgb_params)
  26. clf.fit(df_train[FEATURES].astype('float32'), train_y['correct'], verbose=0)
  27. clf.booster_.save_model(f'LGBM_question{q}_fold{fold}.lgb')

XGB模型训练

使用GroupKFold进行分组抽样,同时构建模型字典存储xgb模型

  1. gkf = GroupKFold(n_splits=5)
  2. oof = pd.DataFrame(data=np.zeros((len(ALL_USERS),18)), index=ALL_USERS)
  3. models = {}

进行模型训练:

  1. for q in range(1, 19):
  2. print(f"question{q}")
  3. if q <= 3:
  4. grp = '0-4'
  5. df = df1
  6. FEATURES = FEATURES1
  7. elif q <= 13:
  8. grp = '5-12'
  9. df = df2
  10. FEATURES = FEATURES2
  11. elif q <= 22:
  12. grp = '13-22'
  13. df = df3
  14. FEATURES = FEATURES3
  15. for i, (train_index, test_index) in enumerate(gkf.split(X=df, groups=df.index)):
  16. print('Fold:',i+1)
  17. xgb_params = {
  18. 'objective' : 'binary:logistic',
  19. 'eval_metric':'logloss',
  20. 'learning_rate': 0.05,
  21. 'max_depth': 4,
  22. 'n_estimators': 1000,
  23. 'early_stopping_rounds': 50,
  24. 'tree_method':'hist',
  25. 'subsample':0.8,
  26. 'colsample_bytree': 0.4}
  27. train_x = df.iloc[train_index] #.reset_index(drop=True)
  28. train_users = train_x.index.values
  29. train_y = targets[targets['session'].isin(list(train_users))].loc[targets.q == q].set_index('session')
  30. valid_x = df.iloc[test_index] #.reset_index(drop=True)
  31. valid_users = valid_x.index.values
  32. valid_y = targets[targets['session'].isin(list(valid_users))].loc[targets.q == q].set_index('session')
  33. clf = XGBClassifier(**xgb_params)
  34. clf.fit(train_x[FEATURES].astype('float32'), train_y['correct'], eval_set=[ (valid_x[FEATURES].astype('float32'), valid_y['correct']) ], verbose=0)
  35. clf.save_model(f'XGB_question{q}_fold{i}.xgb')
  36. print(f'{q}({clf.best_ntree_limit}), ',end='')
  37. models[f'{grp}_{i}_{q}'] = clf
  38. oof.loc[valid_users, q-1] = clf.predict_proba(valid_x[FEATURES].astype('float32'))[:,1]

Cat训练

模型训练:

  1. for q in range(1, 19):
  2. print(f"question{q}")
  3. if q <= 3:
  4. grp = '0-4'
  5. df = df1
  6. FEATURES = FEATURES1
  7. elif q <= 13:
  8. grp = '5-12'
  9. df = df2
  10. FEATURES = FEATURES2
  11. elif q <= 22:
  12. grp = '13-22'
  13. df = df3
  14. FEATURES = FEATURES3
  15. for i, (train_index, test_index) in enumerate(gkf.split(X=df, groups=df.index)):
  16. print('Fold:',i+1)
  17. cat_params = {
  18. 'iterations': 1000,
  19. 'early_stopping_rounds': 90,
  20. 'depth': 5,
  21. 'learning_rate': 0.02,
  22. 'loss_function': "Logloss",
  23. 'random_seed': 222222,
  24. 'metric_period': 1,
  25. 'subsample': 0.8,
  26. 'colsample_bylevel': 0.4,
  27. 'verbose': 0,
  28. 'l2_leaf_reg': 20,
  29. }
  30. train_x = df.iloc[train_index] #.reset_index(drop=True)
  31. train_users = train_x.index.values
  32. train_y = targets[targets['session'].isin(list(train_users))].loc[targets.q == q].set_index('session')
  33. valid_x = df.iloc[test_index] #.reset_index(drop=True)
  34. valid_users = valid_x.index.values
  35. valid_y = targets[targets['session'].isin(list(valid_users))].loc[targets.q == q].set_index('session')
  36. clf = CatBoostClassifier(**cat_params)
  37. clf.fit(train_x[FEATURES].astype('float32'), train_y['correct'],
  38. eval_set=[ (valid_x[FEATURES].astype('float32'), valid_y['correct']) ],
  39. verbose=0)
  40. clf.save_model(f'Cat_question{q}_fold{i}.cbm')
  41. models[f'{grp}_{i}_{q}'] = clf
  42. oof.loc[valid_users, q-1] = clf.predict_proba(valid_x[FEATURES].astype('float32'))[:,1]

模型本地cv

构建真实正确率df:

  1. true = oof.copy()
  2. for k in range(18):
  3. # GET TRUE LABELS
  4. tmp = targets.loc[targets.q == k+1].set_index('session').loc[ALL_USERS]
  5. true[k] = tmp.correct.values

绘制阈值和F1分数

  1. plt.figure(figsize=(20,5))
  2. plt.plot(thresholds,scores,'-o',color='blue')
  3. plt.scatter([best_threshold], [best_score], color='blue', s=300, alpha=1)
  4. plt.xlabel('Threshold',size=14)
  5. plt.ylabel('Validation F1 Score',size=14)
  6. plt.title(f'Threshold vs. F1_Score with Best F1_Score = {best_score:.3f} at Best Threshold = {best_threshold:.3}',size=18)
  7. plt.show()

其中基础xgb模型为:
f51983e98ffb9ba73c4c1caeae6faa42.png
可以基础xgb的最佳阈值为0.62,本地cv为0.695,Public Score为0.695,Private Score为0.696,其中Private Score为本次竞赛最后所看的分数。


点击标题查阅往期内容

6500109f3d352504646e81986c593b5f.png

Python信贷风控模型:Adaboost,XGBoost,SGD, SVC,随机森林, KNN预测信贷违约支付

outside_default.png

左右滑动查看更多

outside_default.png

01

5280fb8205faf02f211e267ae6dedd71.png

02

c65fa70786214a3156490ff5b9eca984.png

03

89444727db0c762186d3e4ddb20bc5d7.png

04

d9ed96e5f9c368e0a5d4f0dca1f9077e.png

基础模型分数

  1. CV Public Score Private Score
  2. LGB 0.693 0.693 0.694
  3. XGB 0.695 0.695 0.696
  4. Cat 0.696 0.697 0.695

从基础单模来看,XGB在私榜上获得了最高的分数,Cat在本地交叉验证和公榜获得了较高的分数。

分数提升

在开源代码的特征上,我们使用了三种树模型建立了基础框架,在后续的比赛过程中,我们会在这三个框架上不断增加新的技巧以及特征构建,以此来获得更高的分数。

问题准确率分布

参考GUSTHEMA的代码,我们可以发现问题正确率的分布规律,容易发现问题2和问题18中学生基本能够回答出所有问题,而使用基本模型对这两个问题进行预测得到的f1分数往往是这18个问题中最低的。我们使用trick,直接预测问题2和问题18的correct为1,可以提升最后的分数。
3c4645cbdcfb1c9e0709472dbb99dabc.png

除了直接预测问题2和18的correct为1以外,我们还可以使用一个较低的阈值来保留问题为0的可能性,比如:

  1. mask = sample_submission.session_id.str.contains(f'q{q}')
  2. sample_submission.loc[mask,'correct'] = int( avg_p > 0.1)

数据集合并

我们注意到在提交时,由于我们获得的测试集是一个个level_group得到的,无法在预测前几个问题时获得后面level_group的数据集,但我们能够通过合并之前得到level_group的测试集来获得更多的数据,提高后续问题准确率。

36c083bed011f51a94e073ebe83106eb.png

在模型训练时候,我们将原数据集按照三个level_group进行拆分后分别进行训练,但如果我们对于第二个level_group:5-12,我们将其与第一个level_group进行合并,然后将最后一个level_group:13-22与之前两个合并。

ef2d3748e47a39a232aee6ac1f709d59.png

Qi Zhang

拓端分析师

bfb9b9083b47e09896f6e1c380af8afe.png

这样在训练时候,后面的问题可以使用更多的数据进行训练,能够提高f1 score,其中训练集的划分为:

  1. df1 = df.filter(pl.col("level_group")=='0-4')
  2. df2 = df.filter((pl.col("level_group")=='5-12') | (pl.col("level_group")=='0-4'))
  3. df3 = df

在提交时,我们需要对得到的数据集进行合并来预测后续问题,我们通过计数器counter来记录当前获得测试集是哪个level_group的,如果是第一个,则用temp_1来存储获得的测试集,当测试集为后续level_group时,将其合并起来,具体代码如下:

  1. limits = {'0-4':(1,4), '5-12':(4,14), '13-22':(14,19)}
  2. counter = 0
  3. for (test, sample_submission) in iter_test:
  4. test = test.sort_values(by = 'index')
  5. session_id = test.session_id.values[0]
  6. grp = test.level_group.values[0]
  7. a,b = limits[grp]
  8. if counter % 3 == 0:
  9. print(test.level_group.values[0], 'FEATURES1')
  10. temp_1 = test
  11. FEATURES = FEATURES1
  12. test = (pl.from_pandas(temp_1)
  13. .sort(["session_id", "elapsed_time"])
  14. .drop(["fullscreen", "hq", "music"])
  15. .with_columns(columns))
  16. test = feature_engineer_04(test)
  17. test = test[FEATURES]
  18. elif counter % 3 == 1:
  19. print(test.level_group.values[0], 'FEATURES2')
  20. temp_2 = pd.concat([temp_1, test])
  21. FEATURES = FEATURES2
  22. test = (pl.from_pandas(temp_2)
  23. .sort(["session_id", "elapsed_time"])
  24. .drop(["fullscreen", "hq", "music"])
  25. .with_columns(columns))
  26. test = feature_engineer_512(test)
  27. test = test[FEATURES]
  28. elif counter % 3 == 2:
  29. print(test.level_group.values[0], 'FEATURES3')
  30. temp_3 = pd.concat([temp_2, test])
  31. FEATURES = FEATURES3
  32. test = (pl.from_pandas(temp_3)
  33. .sort(["session_id", "elapsed_time"])
  34. .drop(["fullscreen", "hq", "music"])
  35. .with_columns(columns))
  36. test = feature_engineer_1322(test)
  37. test = test[FEATURES]
  38. for q in range(a,b):
  39. if q == 2:
  40. mask = sample_submission.session_id.str.contains(f'q{q}')
  41. sample_submission.loc[mask,'correct'] = 1
  42. elif q == 18:
  43. mask = sample_submission.session_id.str.contains(f'q{q}')
  44. sample_submission.loc[mask,'correct'] = 1
  45. else:
  46. total_p = 0
  47. print(f'question{q}', list_contains_all_elements(test.columns, top500_features_list[q-1]))
  48. temp_test = test[top500_features_list[q-1]]
  49. for i in range(5):
  50. clf = models[f'{grp}_{i}_{q}']
  51. p = clf.predict_proba(temp_test.astype('float32'))[0,1]
  52. total_p = total_p + p
  53. avg_p = total_p / 5
  54. mask = sample_submission.session_id.str.contains(f'q{q}')
  55. sample_submission.loc[mask,'correct'] = int( avg_p > best_score)
  56. env.predict(sample_submission)
  57. counter += 1

在使用了“额外”的数据集对模型进行训练和提交后,可以发现除了第一个level_group以外,后续的其他level_group对应问题的分数均有了提高。公榜的分数均提升了至少0.001。

改变抽样方式

开源代码通常使用的抽样方式为分组抽样:

gkf = GroupKFold(n_splits=5)

然而我们本身就需要对这些问题进行分组预测,这样的抽样方式并就没有什么意义,我们将原来的分组抽样改成基于训练样本correct分布的分层抽样,代码如下:

skf = StratifiedKFold(n_splits=5, shuffle=False)

我们使用的是五折分层抽样,并没有打乱顺序,如果需要打乱顺序可以将shuffle为False改为True同时加入参数random_state=42(其中数字随意)。使用五折分层抽样意味着每次抽样会将correct为“0”和“1”的数据各留出1/5作为验证集,这五次抽样的验证集的并集是整个训练集。
通过改变抽样方式,我们能够略微提升模型分数。

特征筛选

特征筛选的目的是减少特征空间的维度,提高模型的性能、减少过拟合的风险,并增加对数据的理解和解释能力。

通过选择与预测目标相关性较高的特征,可以提高机器学习模型的预测性能。不相关或冗余的特征可能会引入噪声或干扰,导致模型性能下降。特征筛选可以剔除这些无关或冗余的特征,使模型更专注于重要的特征,从而提高预测准确性。
过多的特征可能导致模型过于复杂,容易出现过拟合的问题。过拟合指的是模型过度拟合训练数据,无法很好地泛化到新数据。通过特征筛选,可以减少特征的数量,降低模型的复杂性,从而减少过拟合的风险。
通过减少特征的数量,可以降低机器学习模型的计算资源需求和训练时间开销。在大规模数据集和复杂模型的情况下,特征筛选可以显著提高计算效率,加快模型训练和推断的速度。
我们在lgb的框架上筛选重要性为前500的特征:

  1. dfs = []
  2. top500_features_list = []
  3. for q in range(1, 19):
  4. # USE THIS TRAIN DATA WITH THESE QUESTIONS
  5. print(f"question{q}")
  6. if q <= 3:
  7. grp = '0-4'
  8. df = df1
  9. n = 400
  10. FEATURES = FEATURES1
  11. elif q <= 13:
  12. grp = '5-12'
  13. df = df2
  14. n = 500
  15. FEATURES = FEATURES2
  16. elif q <= 22:
  17. grp = '13-22'
  18. df = df3
  19. n = 700
  20. FEATURES = FEATURES3
  21. temp = targets.loc[targets['question'] == q]

top500_features_list包含了每个问题的前500重要性的特征,后续重新训练时候读入特征,得到lgb模型:

clf.fit(train_x[top500_features_list[q-1]].astype('float32'), train_y['correct'], eval_set=[ (valid_x[top500_features_list[q-1]].astype('float32'), valid_y['correct']) ], verbose=0)

我们在lgb模型的框架下得到:

6ed2d598675e583fc29fd30ec4eb1c1e.png

可以看到本地交叉验证cv分数达到0.699,而公榜分数为0.698,私榜分数达到了0.701。由于该模型的公榜分数较低,被我们放弃。

XGB+GPU

虽然比赛规定不能使用GPU和Internet我们可以使用GPU进行训练,在得到模型后infer得到submission,其中XGB只需要修改一行代码即可

将tree_method从原来的hist改为gpu_hist即可。
其中cv分数为0.696,公榜分数为0.699,私榜分数为0.698.

特征工程

在进行大量特征实验后,加入了很多分位数特征与elapsed_time_diff更细精度的特征:

  1. `
  2. `[pl.col("elapsed_time_diff").filter(pl.col('text').str.contains(c)).quantile(0.3).alias(f'quantile0.3&word_max_{c}') for c in DIALOGS if f'quantile0.3&word_max_{c}' in all_fea],
  3. *[pl.col("elapsed_time_diff").filter(pl.col('text').str.contains(c)).quantile(0.5).alias(f'quantile0.5word_max_{c}') for c in DIALOGS if f'quantile0.5word_max_{c}' in all_fea],
  4. *[pl.col("elapsed_time_diff").filter(pl.col('text').str.contains(c)).quantile(0.65).alias(f'quantile0.65word_max_{c}') for c in DIALOGS if f'quantile0.65word_max_{c}' in all_fea],
  5. *[pl.col("elapsed_time_diff").filter(pl.col('text').str.contains(c)).quantile(0.8).alias(f'quantile0.8word_max_{c}') for c in DIALOGS if f'quantile0.8word_max_{c}' in all_fea],
  6. *[pl.col("elapsed_time_diff").filter((pl.col("event_name")==e)&(pl.col("name")==n)&(pl.col("room_fqid")==r)).sum().alias(f"etd&name{n}&eventname{e}&room{r}") for e in event_name_feature for n in name_feature for r in room_lists if f"etd&name{n}&eventname{e}&room{r}" in all_fea],
  7. *[pl.col("elapsed_time_diff").filter((pl.col("event_name")==e)&(pl.col("name")==n)&(pl.col("level")==l)).sum().alias(f"etd&name{n}&eventname{e}&level{l}") for e in event_name_feature for n in name_feature for l in LEVELS if f"etd&name{n}&eventname{e}&level{l}" in all_fea],
  8. *[pl.col("elapsed_time_diff").filter((pl.col("room_fqid")==r)&(pl.col('text').str.contains(d))).sum().alias(f"etd&room{r}&diag{d}") for d in DIALOGS for r in room_lists if f"etd&room{r}&diag{d}" in all_fea],
  9. *[pl.col("elapsed_time_diff").filter((pl.col("text_fqid")==t)&(pl.col('text').str.contains(d))).sum().alias(f"etd&text{t}&diag{d}") for d in DIALOGS for t in text_lists if f"etd&text{t}&diag{d}" in all_fea],

XGB需要大量的特征进行尝试,所有特征在筛选之前加起来大约1万多个,在polars库和GPU的使用下,时间还算可控。我们最终得到本地CV分数为0.7,公榜分数为0.7,私榜分数为0.698.

模型融合

我们舍去了耗费时间很长的Cat以及cv和公榜分数相差较大的lgb,也由于时间有限,我们融合的模型均为XGB+GPU模型。

融合的三个模型的特征工程有所差别,特征选取数量有所区别。我们将分数最好的单模给予权重0.7,剩下两个按照分数设置权重为0.2和0.1。同时将问题2、18和12的correct直接设置为1,问题13的预测correct直接设置为0.

最终得到公榜分数为0.702,私榜分数为0.7。这个融合方案也是最后拿到银牌方案。

关于分析师

84ee73733f31c5964e1529fc16065679.png

Qi Zhang是拓端研究室(TRL)的研究员。在此对他对本文所作的贡献表示诚挚感谢,他在复旦大学完成了硕士学位,专注深度学习、机器学习、数据分析等领域。擅长Python。

数据、代码获取

在公众号后台回复“游戏”,可免费获取完整数据、代码。

d748a17565182ce234253e9e6f0d6c42.jpeg

本文中分析的数据、代码、文档、讲解视频分享到会员群,扫描下面二维码即可加群!

b1d2dedcf177c0843413cfd4a5fc77a1.png

08d3d94087940475b45aa9a5c06a62ed.jpeg

点击文末“阅读原文”

获取全文完整代码数据资料。

本文选自《【视频讲解】Python比赛LightGBM、XGBoost+GPU和CatBoost预测学生在游戏学习过程表现》。

点击标题查阅往期内容

Python进行多输出(多因变量)回归:集成学习梯度提升决策树GRADIENT BOOSTING,GBR回归训练和预测可视化

Python对商店数据进行lstm和xgboost销售量时间序列建模预测分析

PYTHON集成机器学习:用ADABOOST、决策树、逻辑回归集成模型分类和回归和网格搜索超参数优化

R语言集成模型:提升树boosting、随机森林、约束最小二乘法加权平均模型融合分析时间序列数据

Python对商店数据进行lstm和xgboost销售量时间序列建模预测分析

R语言用主成分PCA、 逻辑回归、决策树、随机森林分析心脏病数据并高维可视化

R语言基于树的方法:决策树,随机森林,Bagging,增强树

R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测

spss modeler用决策树神经网络预测ST的股票

R语言中使用线性模型、回归决策树自动组合特征因子水平

R语言中自编基尼系数的CART回归决策树的实现

R语言用rle,svm和rpart决策树进行时间序列预测

python在Scikit-learn中用决策树和随机森林预测NBA获胜者

python中使用scikit-learn和pandas决策树进行iris鸢尾花数据分类建模和交叉验证

R语言里的非线性模型:多项式回归、局部样条、平滑样条、 广义相加模型GAM分析

R语言用标准最小二乘OLS,广义相加模型GAM ,样条函数进行逻辑回归LOGISTIC分类

R语言ISLR工资数据进行多项式回归和样条回归分析

R语言中的多项式回归、局部回归、核平滑和平滑样条回归模型

R语言用泊松Poisson回归、GAM样条曲线模型预测骑自行车者的数量

R语言分位数回归、GAM样条曲线、指数平滑和SARIMA对电力负荷时间序列预测

R语言样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化

如何用R语言在机器学习中建立集成模型?

R语言ARMA-EGARCH模型、集成预测算法对SPX实际波动率进行预测

在python 深度学习Keras中计算神经网络集成模型

R语言ARIMA集成模型预测时间序列分析

R语言基于Bagging分类的逻辑回归(Logistic Regression)、决策树、森林分析心脏病患者

R语言基于树的方法:决策树,随机森林,Bagging,增强树

R语言基于Bootstrap的线性回归预测置信区间估计方法

R语言使用bootstrap和增量法计算广义线性模型(GLM)预测置信区间

R语言样条曲线、决策树、Adaboost、梯度提升(GBM)算法进行回归、分类和动态可视化

Python对商店数据进行lstm和xgboost销售量时间序列建模预测分析

R语言随机森林RandomForest、逻辑回归Logisitc预测心脏病数据和可视化分析

R语言用主成分PCA、 逻辑回归、决策树、随机森林分析心脏病数据并高维可视化

Matlab建立SVM,KNN和朴素贝叶斯模型分类绘制ROC曲线

matlab使用分位数随机森林(QRF)回归树检测异常值

b9d3036aa38610b222fc015198bae475.jpeg

d9da792ce61100a1bc8dc106c930da29.png

5b1fb6bf4b3146b7a50c54c376799502.png

a7c916aea08f7721e92404bfe8d4d37d.jpeg

54cfb76c33ee0f99b257ed37903ca6b1.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/819132
推荐阅读
相关标签
  

闽ICP备14008679号