Skip to content

Commit

Permalink
修正部分内容
Browse files Browse the repository at this point in the history
  • Loading branch information
yizt committed Apr 24, 2020
1 parent 58b9198 commit 93a64f7
Showing 1 changed file with 3 additions and 3 deletions.
6 changes: 3 additions & 3 deletions 0_1-全连接层、损失函数的反向传播.md
Original file line number Diff line number Diff line change
Expand Up @@ -16,7 +16,7 @@ d) 熟悉矩阵和向量的乘加运算

## 约定说明

a) 对于一个$n$层神经网络,第$i$层表示为$l_i, \ 1 \le i \le n$ ,第$i$神经元个数为$|l_i|$ ; 注意$l_i$是输入层, $l_n$ 是输出层。
a) 对于一个$n$层神经网络,第$i$层表示为$l_i, \ 1 \le i \le n$ ,第$i$神经元个数为$|l_i|$ ; 注意$l_1$是输入层, $l_n$ 是输出层。



Expand All @@ -28,15 +28,15 @@ c) 设神经网络中第i层的输出为$z^i$,($z^i$ 都是行向量)则 $x=z^1,



d) 定义损失函数为$L(y,y^*)$ ;其中$y*$ 为样本的真实$y$值
d) 定义损失函数为$L(y,y^*)$ ;其中$y^*$ 为样本的真实$y$值



## 误差反向

a) 记损失函数L关于第$i$ 层神经元的输出$z^i$ 的偏导为$\delta^i = \frac {\partial L} {\partial z^i} \ \ \ (1)$

b) 首先我们来看看损失函数L在最后一层参数上的偏导;也就是$\frac {\partial L} {\partial W^{n-1}}$ 和 $\frac {\partial L} {\partial b^{n-1}}$
b) 首先我们来看看损失函数L在最后一层参数上的偏导;也就是$\frac {\partial L} {\partial W^{n-1}}$ 和 $\frac {\partial L} {\partial b^{n-1}}$
$$
\begin{align*}
& \frac {\partial L} {\partial W^{n-1}_{i,j}} \ \ \ \\
Expand Down

0 comments on commit 93a64f7

Please sign in to comment.