赞
踩
目录
给定几个点的状态,权重矩阵,进行一次图卷积:ReLU(AHW)
在反向传播过程中需要对激活函数进行求导,如果导数大于1,那么随着网络层数的增加梯度更新将会朝着指数爆炸的方式增加这就是梯度爆炸。同样如果导数小于1,那么随着网络层数的增加梯度更新信息会朝着指数衰减的方式减少这就是梯度消失。因此,梯度消失、爆炸,其根本原因在于反向传播训练法则,属于先天不足。
另一方面,如果选择sigmoid激活函数,导数小于1,也容易导致梯度消失。
解决方案:
过程中降低了特征维度!学习低维表示,希望能无损地重构,重构误差最小
RBM可以学习数据内部特征,拟合离散分布,基于能量模型
DBN逐层无监督训练RBM,最后有监督微调
VAE 模型是一种包含隐变量的生成模型,它利用神经网络训练得到两个函数(也称为推断网络和生成网络),进而生成输入数据中不包含的数据。基于概率。
VAE 中隐藏层服从高斯分布,AE 中的隐藏层无分布要求。
训练时,AE 训练得到 Encoder 和 Decoder 模型,而 VAE 除了得到这两个模型,还获得了隐藏层的分布模型(即高斯分布的均值与方差)
AE 只能重构输入数据X,而 VAE 可以生成含有输入数据某些特征与参数的新数据。
VAE 模型基本原理简单介绍_smile-yan的博客-CSDN博客_vae模型
相比于传统机器算法,GAN有三方面的优势:
基本思想:智能体,环境,状态,动作,奖励,最大化期望的奖励,监督学习与强化学习相结合
马尔可夫决策过程的定义:
状态,动作,奖励,转移概率,奖励衰减因子
状态估值函数的贝尔曼最优,贝尔曼方程:
注意力机制就是对输入权重分配的关注,最开始使用到注意力机制是在编码器-解码器(encoder-decoder)中, 注意力机制通过对编码器所有时间步的隐藏状态做加权平均来得到下一层的输入变量。
注意三个权重矩阵!U、V、W
反向传播:BPTT
用于机器翻译:
监督学习: 从标记的训练数据来推断一个功能的机器学习任务。
无监督学习: 根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习。
强化学习: 用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。
半监督学习: 半监督学习使用大量的未标记数据,以及同时使用标记数据,来进行模式识别工作。
端到端解决问题, 削减了对每一个问题设计特征提取器的工作,自动地提取特征,能够解决更为复杂的任务。充分利用大数据,准确度的上限更高。但理论不够完备。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。