当前位置:   article > 正文

神经网络基础原理

神经网络基础原理

目录

神经网络基础

感知机(早期基础)

神经网络原理


神经网络基础

人工神经网络(ANN),简称神经网络(NN)。

经典神经网络结构包括三个层次:输入层、输出层以及隐藏层

每个圆圈代表一个神经元,隐藏层和输出层的神经元由输入的数据计算后输出,输出层的神经元只是输出

神经网络特点

1)每个连接都有权值

2)同一层神经元之间没有连接

3)最后的输出结果对应的层称之为全连接层

感知机(早期基础)

不能解决复杂的问题

可以解决与问题:两个特征同时为1,结果为1

              或问题:两个特征一个为1,结果为1

              

感知机是一种基础的分类模型,使用激活函数sign,感知机也有连接的权重和偏置

u=\sum_{i=1}^{n}wixi+b

y=sign(u)\left\{\begin{matrix} +1,u>0\\ -1,u\leqslant 0 \end{matrix}\right.

神经网络原理

神经网络解决多分类问题

softmax回归:将神经网络输出转换成概率结果

softmax(y)i=\frac{e^{yi}}{\sum_{n}^{j=1}e^{yi}}

logits 加上softmax映射 ---多分类问题

怎样找到合适的模型参数?

构造损失函数(交叉熵损失)

公式:H_{​{y}'}(y)=-\sum_{i}^{}{yi}'\log (yi)

减少损失,需要进行优化,提高对应目标值为1的位置输出概率大小

优化损失(TensorFlow中)

tf.nn.softmax_cross_entropy_with_logits(labels=None,logits=None,name=None)

     计算logits和labels之间的交叉损失熵

     labels:标签值(真实值)

     logits:样本加权之后的值

     return:返回损失值列表

tf.reduce_mean(input_tensor)

     计算张量的尺寸的元素平均值

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/468791
推荐阅读
相关标签
  

闽ICP备14008679号