赞
踩
实现神经网络的时候,一个好的符号约定能够对繁多的样本数据和网络参数,神经网络的复杂计算等进行有条理地 组织 和 表示。
模型参数
对神经网络进行编程时经常会让参数 w w w 和参数 b b b 分开,这里 w w w 表示 特征权重, b b b 对应 偏置。在其它的符号惯例中,有用 θ \theta θ 来统一表示模型参数的。
为了能把训练集表示得更紧凑一点,我们会定义一个矩阵用大写
X
X
X 的表示,它由输入向量
x
(
1
)
x^{(1)}
x(1)、
x
(
2
)
x^{(2)}
x(2)等 按列堆叠 而成叠。所以这个矩阵有
m
m
m 列,是训练集的样本数量,然后这个矩阵的高度记为
n
x
n_x
nx,即 X.shape
为
(
n
x
,
m
)
(n_x,m)
(nx,m)。在实现神经网络的时候,使用按列堆叠的这种形式,会让整个实现的过程变得更加简单。
对于输出标签
y
y
y,我们同样按列堆叠,即
Y
Y
Y 等于
{
y
(
1
)
,
y
(
2
)
,
.
.
.
,
y
(
m
)
}
\{ y^{(1)},y^{(2)},...,y^{(m)}\}
{y(1),y(2),...,y(m)},以便后续计算。Y.shape
等于
(
1
,
m
)
(1,m)
(1,m)。
单个神经元
吴恩达 deeplearning.ai
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。