赞
踩
【2021.07】datawhale组队学习李宏毅task01
这一节关于机器学习的介绍可以直接用下面这张图概括。
蓝色的方块指的是学习的场景,红色的指的是你的task,你要解决的问题,不同的task又可以使用不同的method来完成。
【2021.07】datawhale组队学习李宏毅task02
以宝可梦cp值预测为例,分别介绍了单个特征和多个特征的模型假设,模型评价集模型优化。
计算方法:
1.随机选取一个w;
2.计算w=w0时L对w的微分,也就是当前的斜率;
如果斜率为负,则说明该点左侧的loss值更高,需要增加w的值;
3.根据学习率移动;
如何确定移动多少步长?1.微分的大小,2.learning rate。
更多的input & 正则化
03、04、05的内容都在【2021.07】datawhale组队学习李宏毅task03
误差的主要来源有bias和variance
将验证集分为training set(训练集)和validation set(验证集)两个部分,用训练集来构造每个model最好的function,使用验证集来选择model
将训练集分成N份,比如分成3份。一次使用一份当作验证集,另外两份当作训练集,分别计算每次的average error,得到model1最佳,再用完整的training data重新训练参数。
这里是对之前介绍的内容进一步的扩展,主要包括一些自动调参的方法
深度学习也可以分为三个步骤:
我们仍然用损失函数来反应模型的好坏,对于神经网络,我们采用交叉熵(cross entropy)函数来对y和
y
^
\hat y
y^的损失进行计算,接下来我们就是调整参数,让交叉熵越小越好。
【2021.07】datawhale组队学习李宏毅task05
这一部分的内容还没有补完,先空着。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。