赞
踩
去年面试字节的时候,准备了一些算法常用的面试知识点,事实证明,准备的还不错。现在分享给大家,希望自己求职路也顺利些。
目录
优化算法,Adam, Momentum, Adagard,SGD原理:
正则化:
Logit函数和sigmoid函数的关系:
损失函数:
交叉熵损失函数:
神经网络为啥使用交叉熵?
激活函数的作用:
逻辑回归和线性回归:
分类算法及其应用场景:
Batch Normalization:批标准化
欠拟合、过拟合的解决方法:
如何解决梯度消失和梯度爆炸问题
如何解决正负样本不平衡问题:
线性回归和逻辑回归:
训练网络不收敛的原因:
使用较小卷积核的好处: