Skip to content

Commit

Permalink
update chap9
Browse files Browse the repository at this point in the history
  • Loading branch information
HuangQinJian committed Nov 7, 2018
1 parent cbb21fa commit c95c33a
Show file tree
Hide file tree
Showing 2 changed files with 9 additions and 3 deletions.
3 changes: 3 additions & 0 deletions ch9_图像分割/modify_log.txt
Original file line number Diff line number Diff line change
Expand Up @@ -28,6 +28,9 @@ modify_log---->用来记录修改日志
4. 修改或者删除部分9.9.3公式、部分说法(可讨论),增加论文链接
5. 修改或者删除部分9.9.4公式、部分说法(可讨论),增加论文链接

<----qjhuang-2018-11-7---->
1. 修改9.5答案部分说法(可讨论)

其他---->待增加
2. 修改readme内容
3. 修改modify内容
Expand Down
9 changes: 6 additions & 3 deletions ch9_图像分割/第九章_图像分割.md
Original file line number Diff line number Diff line change
Expand Up @@ -368,11 +368,14 @@ RefineNet block的作用就是把不同resolution level的feature map进行融
<center><img src="./img/ch9/figure_9.4_2.png"></center>

&emsp;&emsp;
Residual convolution unit就是普通的去除了BN的residual unit;
Residual convolution unit就是普通的去除了BN的residual unit;

&emsp;&emsp;
Multi-resolution fusion是先对多输入的feature map都用一个卷积层进行adaptation(都化到最小的feature map的shape),再上采样再做element-wise的相加。注意如果是像RefineNet-4那样的单输入block这一部分就直接pass了;
Multi-resolution fusion是先对多输入的feature map都用一个卷积层进行adaptation(都化到最小的feature map的shape),再上采样再做element-wise的相加。注意如果是像RefineNet-4那样的单输入block这一部分就直接pass了;

&emsp;&emsp;
Chained residual pooling 没太看懂怎么残差相加的(其中的ReLU非常重要),之后再修改;
Chained residual pooling中的ReLU对接下来池化的有效性很重要,还可以使模型对学习率的变化没这么敏感。这个链式结构能从很大范围区域上获取背景context。另外,这个结构中大量使用了identity mapping这样的连接,无论长距离或者短距离的,这样的结构允许梯度从一个block直接向其他任一block传播。

&emsp;&emsp;
Output convolutions就是输出前再加一个RCU。

Expand Down

0 comments on commit c95c33a

Please sign in to comment.