Skip to content

Commit b60d895

Browse files
authored
Update README.md
1 parent 829d72f commit b60d895

File tree

1 file changed

+5
-1
lines changed

1 file changed

+5
-1
lines changed

README.md

+5-1
Original file line numberDiff line numberDiff line change
@@ -20,7 +20,9 @@ personal practice
2020
+ batch normalization
2121
------
2222

23-
![#f03c15](https://placehold.it/15/f03c15/000000?text=+) ***Note: 下列 1-10中网络架构主要为四大块: initialize parameters、forward propagation、backward propagation、 update parameters,其中在 fp 和 bp 的时候各个功能没有单独封装,这样会导致耦合度过高,结构不清晰。11中优化了网络结构,使得耦合度更低,网络结构推荐用11中的结构,近期我会重写一个网络结构放上来***
23+
![#f03c15](https://placehold.it/15/f03c15/000000?text=+) ***Note: 下列 1-10中网络架构主要为四大块: initialize parameters、forward propagation、backward propagation、 update parameters,其中在 fp 和 bp 的时候各个功能没有单独封装,这样会导致耦合度过高,结构不清晰。
24+
11中优化了网络结构,使得耦合度更低,网络结构推荐用11中的结构。
25+
重构了神经网络架构(见 deep_neural_network_release.py),把各功能函数分离出来,耦合度更低,结构更清楚,bp过程更加清晰。推荐此版本,用1-10时,可用此版本替换相应代码***
2426

2527
1、**deep_neural_network_v1.py**:自己实现的最简单的深度神经网络(多层感知机),不包含正则化,dropout,动量等...总之是最基本的,只有fp和bp。
2628

@@ -85,6 +87,8 @@ def relu_backward(dA, cache):
8587

8688
11、 **batch_normalization.py** :实现了batch normalization, 改进了整个网络的架构,使得网络的架构更加清晰,耦合度更低。关于batch normalization的具体内容,见本人的CSDN博客:https://blog.csdn.net/u012328159/article/details/82840084
8789

90+
12、 **deep_neural_network_release.py**:重构了深度神经网络,把各功能函数分离出来,耦合度更低,结构更清楚,bp过程更加清晰。**推荐此版本**
91+
8892
<br>
8993
<br>
9094
--------

0 commit comments

Comments
 (0)