Skip to content

Commit

Permalink
add picture caption for chapter 12
Browse files Browse the repository at this point in the history
Former-commit-id: 0707aeb45a68224ef741afff7a45f9d10d1812ea
  • Loading branch information
futianfan committed Dec 21, 2016
1 parent fb3013d commit a8db8dd
Show file tree
Hide file tree
Showing 5 changed files with 19 additions and 18 deletions.
5 changes: 3 additions & 2 deletions Chapter12/applications.tex
Original file line number Diff line number Diff line change
Expand Up @@ -381,14 +381,15 @@ \subsubsection{对比度归一化}
这对于学习算法来说可能是困难的。
<bad>此外,许多浅层的图模型往往会把多个分离的峰值表示在一条线上。
\gls{GCN}采用一个样本一个方向\footnote{译者:所有样本相似的距离}而不是不同的方向和距离来避免这些问题。
% 444 head

\begin{figure}[!htb]
\ifOpenSource
\centerline{\includegraphics{figure.pdf}}
\else
\centerline{\includegraphics{Chapter12/figures/gcn_sphere_color}}
\fi
\caption{TODO}
\caption{\glssymbol{GCN}将样本投影到一个球上。(左)原始的输入数据可能拥有任意的范数。(中)$\lambda=0$时候的\glssymbol{GCN}可以完美地将所有的非零样本投影到球上。这里我们令$s=1$$\epsilon = 10^{-8}$。由于我们使用的\glssymbol{GCN}是基于归一化\gls{standard_deviation}而不是$L^2$范数,所得到的球并不是单位球。(右)$\lambda>0$\gls{regularization}\glssymbol{GCN}将样本投影到球上,但是并没有完全地丢弃其范数中变化。$s$$\epsilon$的取值和之间一样。}
\label{fig:gcn_sphere_color}
\end{figure}

Expand Down Expand Up @@ -422,7 +423,7 @@ \subsubsection{对比度归一化}
\centerline{\includegraphics{Chapter12/figures/gcn1}}
\centerline{\includegraphics{Chapter12/figures/lcn1}}
\fi
\caption{TODO}
\caption{\gls{GCN}和\gls{LCN}的比较。直观上说,\gls{GCN}的效果很巧妙。它使得所有的图片的尺度都差不多,这减轻了学习算法处理多个尺度的负担。\gls{LCN}更多地改变了图像,丢弃了所有相同强度的区域。这使得模型能够只关注于边缘。较好的纹理区域,如第二行的屋子,可能会由于归一化核的过高带宽而丢失一些细节。}
\label{fig:122}
\end{figure}

Expand Down
8 changes: 4 additions & 4 deletions Chapter13/linear_factor_models.tex
Original file line number Diff line number Diff line change
Expand Up @@ -51,7 +51,7 @@ \chapter{\glsentrytext{linear_factor}}
\else
\centerline{\includegraphics{Chapter13/figures/linear_factors}}
\fi
\caption{TODO}
\caption{描述\gls{linear_factor}族的\gls{directed_graphical_model},其中我们假设一个观察到的数据向量$\Vx$是通过独立的隐含因子$\Vh$的线性组合获得的,加上一定的噪音。不同的模型,比如\gls{PPCA},\gls{FA}或者是\glssymbol{ICA},都是选择了不同形式的噪音以及先验$p(\Vh)$}
\label{fig:linear_factors}
\end{figure}

Expand Down Expand Up @@ -391,15 +391,15 @@ \section{\glsentrytext{sparse_coding}}
像其他\gls{linear_factor}一样,\gls{sparse_coding}经常产生糟糕的样本,如\figref{fig:s3c_samples}所示。
即使当模型能够很好地重构数据并为分类器提供有用的特征时,也会发生这种情况。
<bad>这种现象原因是每个单独的特征可以很好地被学习到,但是隐含结点\gls{factorial}先验会导致模型包括每个生成的样本中的所有特征的随机子集。
这促使人们在深度模型中的最深层以及一些复杂成熟的浅层模型上施加一个不\gls{factorial}的分布
这促使人们在深度模型中的最深层以及一些复杂成熟的浅层模型上施加一个非\gls{factorial}分布

\begin{figure}[!htb]
\ifOpenSource
\centerline{\includegraphics{figure.pdf}}
\else
\centerline{\includegraphics{Chapter13/figures/s3c_samples}}
\fi
\caption{TODO}
\caption{\gls{ss}\gls{sparse_coding}模型上在MNIST数据集训练的样例和权重。(左)这个模型中的样本和训练样本相差很大。第一眼看来,我们可以认为模型拟合得很差。(右)这个模型的权重向量已经学习到了如何表示笔迹,有时候还能写完整的数字。因此这个模型也学习到了有用的特征。问题在于特征的\gls{factorial}先验会导致特征子集合随机的组合。一些这样的子集能够合成可识别的MNIST集上的数字。这也促进了拥有更强大的隐含编码的\gls{generative_model}的发展。此图是从\citet{Goodfeli-et-al-TPAMI-Deep-PrePrint-2013-small}中拷贝来的,并获得允许。}
\label{fig:s3c_samples}
\end{figure}

Expand All @@ -425,7 +425,7 @@ \section{\glssymbol{PCA}的\glsentrytext{manifold}解释}
\else
\centerline{\includegraphics{Chapter13/figures/PPCA_pancake_color}}
\fi
\caption{TODO}
\caption{平坦的高斯能够描述一个低维\gls{manifold}附近的概率密度。此图表示了``\gls{manifold}平面''上的``馅饼''的上半部分并且穿过了它的中心。正交于\gls{manifold}方向(指出平面的箭头)的方差非常小,可以被视作是``噪音'',其它方向(平面内的箭头)的方差则很大,对应了``信号''以及低维数据的坐标系统。}
\label{fig:PPCA_pancake}
\end{figure}

Expand Down
4 changes: 2 additions & 2 deletions Chapter16/structured_probabilistic_modelling.tex
Original file line number Diff line number Diff line change
Expand Up @@ -100,7 +100,7 @@ \section{非结构化建模的挑战}
\else
\centerline{\includegraphics{Chapter16/figures/fig-ssrbm_samples}}
\fi
\caption{TODO}
\caption{自然图片的概率建模。(上)CIFAR-10数据集\citep{KrizhevskyHinton2009}中的$32\times 32$像素的样例图片。(下)这个数据集上训练的\gls{structured_probabilistic_models}中抽出的样本。每一个样本都出现在与其欧式距离最近的训练样本的格点中。这种比较使得我们发现这个模型确实能够生成新的图片,而不是记住训练样本。为了方便展示,两个集合的图片都经过了微调。图片从\citet{Courville+al-2011-small}中复制,并获得允许。}
\label{fig:chap16_fig-ssrbm}
\end{figure}

Expand Down Expand Up @@ -230,7 +230,7 @@ \subsection{\glsentrytext{directed_model}}
\else
\centerline{\includegraphics{Chapter16/figures/relay_race_graph}}
\fi
\caption{TODO}
\caption{一个描述接力赛例子的\gls{directed_graphical_model}。Alice的完成时间$t_0$影响了Bob的完成时间$t_1$,因为Bob会在Alice完成比赛后才开始。类似的,Carol也只会在Bob完成之后才开始,所以Bob的完成时间$t_1$直接影响了Carol的完成时间$t_2$}
\label{fig:relay_race_graph}
\end{figure}

Expand Down
8 changes: 4 additions & 4 deletions deep_learning_research.tex
Original file line number Diff line number Diff line change
Expand Up @@ -4,10 +4,10 @@ \part{深度学习研究}


\input{Chapter13/linear_factor_models.tex}
\input{Chapter14/autoencoders.tex}
\input{Chapter15/representation_learning.tex}
%\input{Chapter14/autoencoders.tex}
%\input{Chapter15/representation_learning.tex}
\input{Chapter16/structured_probabilistic_modelling.tex}
\input{Chapter17/monte_carlo_methods.tex}
\input{Chapter18/confronting_the_partition_function.tex}
%\input{Chapter18/confronting_the_partition_function.tex}
\input{Chapter19/approximate_inference.tex}
\input{Chapter20/deep_generative_models.tex}
%\input{Chapter20/deep_generative_models.tex}
12 changes: 6 additions & 6 deletions deep_networks_modern_practices.tex
Original file line number Diff line number Diff line change
Expand Up @@ -2,12 +2,12 @@
\part{深层网络:现代实践}
\label{part:deep_networks_modern_practices}

\input{Chapter6/deep_feedforward_networks.tex}
\input{Chapter7/regularization.tex}
\input{Chapter8/optimization_for_training_deep_models.tex}
\input{Chapter9/convolutional_networks.tex}
\input{Chapter10/sequence_modeling_rnn.tex}
\input{Chapter11/practical_methodology.tex}
%\input{Chapter6/deep_feedforward_networks.tex}
%\input{Chapter7/regularization.tex}
%\input{Chapter8/optimization_for_training_deep_models.tex}
%\input{Chapter9/convolutional_networks.tex}
%\input{Chapter10/sequence_modeling_rnn.tex}
%\input{Chapter11/practical_methodology.tex}
\input{Chapter12/applications.tex}


0 comments on commit a8db8dd

Please sign in to comment.