赞
踩
完备的 AI 学习路线,最详细的中英文资源整理 ⭐️
AiLearning: 机器学习 - MachineLearning - ML、深度学习 - DeepLearning - DL、自然语言处理 NL
Machine-Learning
Awesome-Chinese-NLP
nlp-pytorch-zh
完全图解RNN、RNN变体、Seq2Seq、Attention机制
循环神经网络(RNN, Recurrent Neural Networks)介绍
RNN以及LSTM的介绍和公式梳理
(译)理解长短期记忆(LSTM) 神经网络
一文读懂LSTM和RNN
探索LSTM:基本概念到内部结构
翻译:深入理解LSTM系列
深入理解 LSTM 网络 (一)
深入理解 LSTM 网络 (二)
LSTM
深度学习其五 循环神经网络
用循环神经网络进行文件无损压缩:斯坦福大学提出DeepZip
吴恩达序列建模课程
word2vec
聊聊 Transformer
基于Transform的机器翻译系统
基于word2vec训练词向量(一)
基于word2vec训练词向量(二)
自然语言处理中的自注意力机制(Self-Attention Mechanism)
自然语言处理中注意力机制综述
YJango的Word Embedding–介绍
Kaggle 六大比赛最全面解析(上)
Kaggle 六大比赛最全面解析(下)
Quickstart tutorial
Numpy快速入门(Numpy 1.14 官方文档中文翻译)
Numpy中文文档
给深度学习入门者的Python快速教程 - numpy和Matplotlib篇
形象易懂讲解算法I——小波变换
小波变换完美通俗讲解系列之 (一) && 小波变换完美通俗讲解系列之 (二)
集成学习之bagging,stacking,boosting概念理解 && Bagging和Boosting的总结
集成学习法之bagging方法和boosting方法
Bagging,Boosting,Stacking && 常用的模型集成方法介绍:bagging、boosting 、stacking