赞
踩
斯坦福大学在三月份开设了一门“深度学习与自然语言处理”的课程:CS224d: Deep Learning for Natural Language Processing,授课老师是青年才俊 Richard Socher,以下为相关的课程笔记。
第四讲:词窗口分类和神经网络(Word Window Classification and Neural Networks)
推荐阅读材料:
以下是第四讲的相关笔记,主要参考自课程的slides,视频和其他相关资料。
本讲概览
分类问题定义
分类问题直窥
分类问题符号定义
分类问题:正则化
机器学习优化问题
引入词向量
重新训练词向量会丧失泛化能力
重新训练词向量会丧失泛化能力续
词向量概念回顾
窗口分类
简单的窗口分类器: Softmax
更新拼接的词向量:Tips
更新拼接的词向量
在训练窗口向量时丢失了什么信息?
矩阵实现的一些注解
softmax(=逻辑回归)并不是强有力的
神经网络更胜一筹
从逻辑回归到神经网络–神经网络解密
一个神经元本质上是一个二元逻辑回归单元
一个神经网络等价于同时运行了很多逻辑回归单元
神经网络中单层的矩阵符号表示
为什么需要非线性的f
一个更牛的窗口分类器
总结:前馈网络计算
下一讲
注:原创文章,转载请注明出处及保留链接“我爱自然语言处理”:http://www.52nlp.cn
本文链接地址:斯坦福大学深度学习与自然语言处理第四讲:词窗口分类和神经网络:http://www.52nlp.cn/?p=8694
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。