赞
踩
学习笔记
模型的理解,构建、神经网络的训练
使用封闭方程来求解,获得模型在当前训练集上最优的参数==》在训练集上使得损失函数达到最小值时模型的参数
使用迭代优化的方法,梯度下降(GD),在训练集上,逐渐的调整模型参数,而获得最小的损失函数,最终参数收敛到和封闭方程求解一样得到相同的值。
批量梯度下降(Batch GD),随机地图下降(Stochastic GD)、小批量梯度下降(Mini-batch GD)(此三个在后面的神经网络里会经常用到)
复杂模型—》多项式回归,可以拟合非线性数据集:过拟合(参数较多会造成),学习曲线判断是否过拟合,正则化减少过拟合
逻辑回归(Logistic)、softmax回归(多类别回归)
线性回归的理解:
线性回归预测模型的一般化公式:
N:特征个数;
Xi:第i个特征值;
线性回归预测模型的一般公式可简化为:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。