Skip to content

Commit

Permalink
mxnet=1.2.1, use save_parameters
Browse files Browse the repository at this point in the history
  • Loading branch information
astonzhang committed Jul 24, 2018
1 parent 5353098 commit 3e75747
Show file tree
Hide file tree
Showing 7 changed files with 12 additions and 11 deletions.
2 changes: 1 addition & 1 deletion build/build.yml
Original file line number Diff line number Diff line change
Expand Up @@ -12,6 +12,6 @@ dependencies:
- nbsphinx==0.2.14
- recommonmark==0.4.0
- https://github.com/mli/notedown/tarball/master
- mxnet-cu80==1.2.0
- mxnet-cu80==1.2.1
- gluonbook==0.7.1
- jieba==0.39
1 change: 1 addition & 0 deletions build/lint.sh
Original file line number Diff line number Diff line change
Expand Up @@ -4,4 +4,5 @@
for f in build/chapter*/*.ipynb; do
echo '===' $f
nblint --linter pyflakes $f
nblint $f
done
4 changes: 2 additions & 2 deletions chapter_appendix/aws.md
Original file line number Diff line number Diff line change
Expand Up @@ -137,11 +137,11 @@ conda env create -f environment.yml
source activate gluon
```

默认环境里安装了CPU版本的MXNet。现在我们将它替换成GPU版本的MXNet(1.2.0版)。
默认环境里安装了CPU版本的MXNet。现在我们将它替换成GPU版本的MXNet(1.2.1 版)。

```
pip uninstall mxnet
pip install mxnet-cu80==1.2.0
pip install mxnet-cu80==1.2.1
```

## 运行Jupyter notebook
Expand Down
4 changes: 2 additions & 2 deletions chapter_computer-vision/neural-style.md
Original file line number Diff line number Diff line change
Expand Up @@ -137,8 +137,8 @@ $$\sum_{i,j} \left|x_{i,j} - x_{i+1,j}\right| + \left|x_{i,j} - x_{i,j+1}\right|

```{.python .input}
def tv_loss(y_hat):
return 0.5 * ((y_hat[:,:,1:,:] - y_hat[:,:,:-1,:]).abs().mean() +
(y_hat[:,:,:,1:] - y_hat[:,:,:,:-1]).abs().mean())
return 0.5 * ((y_hat[:, :, 1:, :] - y_hat[:, :, :-1, :]).abs().mean() +
(y_hat[:, :, :, 1:] - y_hat[:, :, :, :-1]).abs().mean())
```

训练中我们将上述三个损失函数加权求和。通过调整权重值我们可以控制学到的图片是否保留更多样式,更多内容,还是更加干净。此外注意到样式层里有五个神经层,我们对靠近输入的有较少的通道数的层给予比较大的权重。
Expand Down
8 changes: 4 additions & 4 deletions chapter_deep-learning-computation/read-write.md
Original file line number Diff line number Diff line change
Expand Up @@ -42,7 +42,7 @@ mydict2

## 读写Gluon模型的参数

Block类提供了`save_params``load_params`函数来读写模型参数。它实际做的事情就是将所有参数保存成一个名称到NDArray的字典到文件。读取的时候会根据参数名称找到对应的NDArray并赋值。下面的例子我们首先创建一个多层感知机,初始化后将模型参数保存到文件里。
Block类提供了`save_parameters``load_parameters`函数来读写模型参数。它实际做的事情就是将所有参数保存成一个名称到NDArray的字典到文件。读取的时候会根据参数名称找到对应的NDArray并赋值。下面的例子我们首先创建一个多层感知机,初始化后将模型参数保存到文件里。

下面,我们创建一个多层感知机。

Expand All @@ -67,14 +67,14 @@ y = net(x)

```{.python .input}
filename = 'mlp.params'
net.save_params(filename)
net.save_parameters(filename)
```

然后,我们再实例化一次我们定义的多层感知机。但跟前面不一样是我们不是随机初始化模型参数,而是直接读取保存在文件里的参数。

```{.python .input n=8}
net2 = MLP()
net2.load_params(filename)
net2.load_parameters(filename)
```

因为这两个实例都有同样的参数,那么对同一个`x`的计算结果将会是一样。
Expand All @@ -87,7 +87,7 @@ y2 == y
## 小结

* 通过`save``load`可以很方便地读写NDArray。
* 通过`load_params``save_params`可以很方便地读写Gluon的模型参数。
* 通过`load_parameters``save_parameters`可以很方便地读写Gluon的模型参数。

## 练习

Expand Down
2 changes: 1 addition & 1 deletion chapter_introduction/how-to-use.md
Original file line number Diff line number Diff line change
Expand Up @@ -32,7 +32,7 @@

此外,为避免重复描述,我们将本书多次使用的函数、类等封装在`gluonbook`包中。这些函数、类等的定义所在的章节已在附录中[“gluonbook包索引”](../chapter_appendix/gluonbook.md)里列出。

本书所有代码已在MXNet 1.2.0`gluonbook` 0.7.1和Python 3.6.4下测试通过。由于深度学习发展极为迅速,未来版本的MXNet可能会造成书中部分代码无法正常运行。如果遇到某一节代码无法正常运行的情况,可安装1.2.0版的MXNet和0.7.1版的`gluonbook`或在该节的讨论区汇报问题。如果你希望安装未来新版本的MXNet并获得该版本下测试通过的新代码,可参考[“安装和运行”](../chapter_prerequisite/install.md)一节更新代码和运行环境。
本书所有代码已在MXNet 1.2.1`gluonbook` 0.7.1和Python 3.6.4下测试通过。由于深度学习发展极为迅速,未来版本的MXNet可能会造成书中部分代码无法正常运行。如果遇到某一节代码无法正常运行的情况,可安装1.2.1版的MXNet和0.7.1版的`gluonbook`或在该节的讨论区汇报问题。如果你希望安装未来新版本的MXNet并获得该版本下测试通过的新代码,可参考[“安装和运行”](../chapter_prerequisite/install.md)一节更新代码和运行环境。


## 讨论区
Expand Down
2 changes: 1 addition & 1 deletion environment.yml
Original file line number Diff line number Diff line change
Expand Up @@ -6,5 +6,5 @@ dependencies:
- pandas=0.23.2
- pip:
- requests==2.18.4
- mxnet==1.2.0
- mxnet==1.2.1
- gluonbook==0.7.1

0 comments on commit 3e75747

Please sign in to comment.