当前位置:   article > 正文

Latex中的常用公式模板_latex 哈达玛积

latex 哈达玛积

目录

LaTeX公式基础

排版方式

常用西文符号

上标与下标

括号

运算

杂例

LSTM 公式

convLSTM公式


在学习机器学习中会接触到大量的数学公式,所以在写博客是会非常的麻烦。用公式编辑器一个一个写会非常的麻烦,这时候我们可以使用LaTeX来插入公式。

写这篇博文的目的在于,大家如果要编辑一些简单的公式,就不必自己写,直接copy过去修改下就能用了。所以下面仅列出些常用的grammar。随着、机器学习的深入会添加更多的相关公式。

LaTeX公式基础

这里的基础嫌烦的话可以先不看,直接看杂例,有不理解的地方在回来看这里的内容。此处知识摘取了一些简单的语法,如果需要完整的LaTeX书写数学公式的文档,见参考文献。

排版方式

行级元素(inline),行级元素使用$...$,两个$表示公式的首尾。

块级元素(displayed),块级元素使用

...
。块级元素默认是居中显示的。

常用西文符号

\alpha, \beta,...,\omega 代表 \alpha, \beta,...,\omega ; 大写字母,

使用 \Gamma, \Delta,..., \Omega代表\Gamma, \Delta,..., \OmegaΓ,Δ,…,Ω.

上标与下标

使用 ^和 _ 表示上标和下标. 例如

        x_i^2:  x_i^2

      \log_2 x:\log_2 x

使用{}来消除二义性——优先级问题。例如10^10:10^10,显然是错误的,要显示10^{10},正确的语法应该是10^{10}。

括号

小括号和中括号直接使用,大括号由于用来分组,所以需要转义。\{1+2\}:\{1+2\}

运算

  • 分数:\frac{}{}。例如,\frac{1+1}{2}+1\frac{1+1}{2}+1
  • 求和:\sum_1^n:\sum_1^n
  • 积分:\int_1^n:\int_1^n
  • 极限:lim_{x \to \inftylim_{x \to \infty
  • 矩阵:$$\begin{matrix}…\end{matrix}$$,使用&分隔同行元素,\\换行。例如:
  1. $$
  2. \begin{matrix}
  3. 1 & x & x^2 \\
  4. 1 & y & y^2 \\
  5. 1 & z & z^2 \\
  6. \end{matrix}
  7. $$

得到的公式为:

1xx21yy21zz2
 

杂例

LSTM 公式

  1. \begin{equation}
  2. \begin{array}{ll}
  3. \hat{C}_t = tanh(W_C\otimes[h_{t-1},x_t]+b_C) \\[2ex] % 输入信息: 记忆门--从融合信息i_t中提取信息,作用于输入信息
  4. i_t=\sigma(W_i\otimes[h_{t-1},x_t]+b_i) \\[2ex] % 记忆门,输入信息融合--融合h_{t-1},x_t的信息,或称融合门
  5. f_t=\sigma(W_f\otimes[h_{t-1},x_t]+b_f) \\[2ex] % 遗忘门--从cell中忘记东西,记忆与以遗忘都是针对cell的,作用于cell信息
  6. C_t=f_t * C_{t-1}+i_t * \hat{C}_t \\[2ex] % cell 状态更新,包含两部分:从上一个cell忘记一些信息,从当前融合信息提取需要记忆的信息
  7. o_t=\sigma(W_o\otimes[h_{t-1},x_t]+b_o) \\[2ex] % 输出门--负责从更新后的cell提取输出信息
  8. h_t=o_t * tanh(C_t) % 隐状态输出--利用当前的cell状态获取输出。所以cell式操作的核心。记忆,遗忘,输出对cell服务的
  9. \end{array}
  10. \end{equation}

 

C^t=tanh(WC[ht1,xt]+bC)it=σ(Wi[ht1,xt]+bi)ft=σ(Wf[ht1,xt]+bf)Ct=ftCt1+itC^tot=σ(Wo[ht1,xt]+bo)ht=ottanh(Ct)

注释:

这基本可以算是LSTM的标准表达式,很多文献都采用这种表达方式,这几个公式是按逻辑关系排列的。其中:

\hat{C}_t 表示当前time-stamp的输入信息的融合。通常把当前time-stamp的输入信息用tanh激活标准化。

i_t 表示输入门,从当前输入信息\hat{C}_t中留下多少信息到cell。

f_t 表示遗忘门,从旧的cell状态中遗忘掉一些信息,保留剩下的信息

C_t 表示当前的time-stamp的更新后的cell状态

o_t 表示输出门,从当前的cell状态选择哪些信息输出。

h_t 当前time-stamp的输出隐状态

\sigma 代表sigmoid激活函数

tanh 代表tanh激活函数

* 代表逐元素相乘 (pointwise multiplication)

\otimes 代表 Hadamard product 积(矩阵相乘)

[h_{t-1},x_t] 代表 把 h_{t-1}x_t的concate.

说明:LSTM 共包含3个门,输入门i_t ,遗忘门f_t ,输出门o_t ,这三个门都是围绕cell状态发挥作用的。i_t 决定从当前输入中留下多少信息到cell,f_t 决定从上一时刻的cell中忘记多少信息/保留多少信息,o_t 决定从当前cell输出什么信息。h_t  是当前cell的输出。输入门,遗忘门,输出门都是逐元素相乘的操作。其余的特征操作是卷积操作。

convLSTM公式

  1. \begin{equation}
  2. \begin{array}{ll}
  3. \hat{C}_t = tanh(W_C\odot[h_{t-1},x_t]+b_C) \\[2ex] % 输入信息: 记忆门--从融合信息i_t中提取信息,作用于输入信息
  4. i_t=\sigma(W_i\odot[h_{t-1},x_t]+b_i) \\[2ex] % 记忆门,输入信息融合--融合h_{t-1},x_t的信息,或称融合门
  5. f_t=\sigma(W_f\odot[h_{t-1},x_t]+b_f) \\[2ex] % 遗忘门--从cell中忘记东西,记忆与以遗忘都是针对cell的,作用于cell信息
  6. C_t=f_t * C_{t-1}+i_t * \hat{C}_t \\[2ex] % cell 状态更新,包含两部分:从上一个cell忘记一些信息,从当前融合信息提取需要记忆的信息
  7. o_t=\sigma(W_o\odot[h_{t-1},x_t]+b_o) \\[2ex] % 输出门--负责从更新后的cell提取输出信息
  8. h_t=o_t * tanh(C_t) % 隐状态输出--利用当前的cell状态获取输出。所以cell式操作的核心。记忆,遗忘,输出对cell服务的
  9. \end{array}
  10. \end{equation}

C^t=tanh(WC[ht1,xt]+bC)it=σ(Wi[ht1,xt]+bi)ft=σ(Wf[ht1,xt]+bf)Ct=ftCt1+itC^tot=σ(Wo[ht1,xt]+bo)ht=ottanh(Ct)

注释:

与LSTM的方程式相比,ConvLSTM的各个门的计算方式变了,由全连接的Hadamard积变成了卷积操作,减少了参数量,保存的输入数据的空间信息。

\odot 代表卷积操作(convolutiaon operation)

注:卷积操作,Hadamard积与逐元素相乘,这三种操作的符号表示,在计算机视觉领域内似乎没有统一的标准/习惯,在公式表达上加上对应的说明即可。

$$h(\theta)=\sum_{j=0}^n \theta_jx_j$$

h(θ)=j=0nθjxj

$$J(\theta)=\frac1{2m}\sum_{i=0}(y^i-h_\theta(x^i))^2$$

J(θ)=12mi=0(yihθ(xi))2

  1. $$
  2. \frac{\partial J(\theta)}{\partial\theta_j}=
  3. -\frac1m\sum_{i=0}^m(y^i-h_\theta(x^i))x^i_j
  4. $$

J(θ)θj=1mi=0m(yihθ(xi))xji

  1. $$
  2. f(n) =
  3. \begin{cases}
  4. n/2, & \text{if $n$ is even} \\
  5. 3n+1, & \text{if $n$ is odd}
  6. \end{cases}
  7. $$

f(n)={n/2,if n is even3n+1,if n is odd

  1. $$
  2. \left\{
  3. \begin{array}{c}
  4. a_1x+b_1y+c_1z=d_1 \\
  5. a_2x+b_2y+c_2z=d_2 \\
  6. a_3x+b_3y+c_3z=d_3
  7. \end{array}
  8. \right.
  9. $$

{a1x+b1y+c1z=d1a2x+b2y+c2z=d2a3x+b3y+c3z=d3

  1. $$X=\left(
  2. \begin{matrix}
  3. x_{11} & x_{12} & \cdots & x_{1d}\\
  4. x_{21} & x_{22} & \cdots & x_{2d}\\
  5. \vdots & \vdots & \ddots & \vdots\\
  6. x_{m1} & x_{m2} & \cdots & x_{md}\\
  7. \end{matrix}
  8. \right)
  9. =\left(
  10. \begin{matrix}
  11. x_1^T \\
  12. x_2^T \\
  13. \vdots\\
  14. x_m^T \\
  15. \end{matrix}
  16. \right)
  17. $$

X=(x11x12x1dx21x22x2dxm1xm2xmd)=(x1Tx2TxmT)

  1. $$
  2. \begin{align}
  3. \frac{\partial J(\theta)}{\partial\theta_j}
  4. & = -\frac1m\sum_{i=0}^m(y^i-h_\theta(x^i)) \frac{\partial}{\partial\theta_j}(y^i-h_\theta(x^i)) \\
  5. & = -\frac1m\sum_{i=0}^m(y^i-h_\theta(x^i)) \frac{\partial}{\partial\theta_j}(\sum_{j=0}^n\theta_jx_j^i-y^i) \\
  6. & = -\frac1m\sum_{i=0}^m(y^i-h_\theta(x^i))x^i_j
  7. \end{align}
  8. $$

J(θ)θj=1mi=0m(yihθ(xi))θj(yihθ(xi))=1mi=0m(yihθ(xi))θj(j=0nθjxjiyi)=1mi=0m(yihθ(xi))xji

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/238404
推荐阅读
相关标签
  

闽ICP备14008679号