Skip to content

Commit

Permalink
adjust 13.4
Browse files Browse the repository at this point in the history
Former-commit-id: 66cbc6e4565900d823b9b32f020510c4d6a3653d
  • Loading branch information
futianfan committed Dec 18, 2016
1 parent 4f353a7 commit 2c04688
Show file tree
Hide file tree
Showing 2 changed files with 17 additions and 12 deletions.
22 changes: 10 additions & 12 deletions Chapter13/linear_factor_models.tex
Original file line number Diff line number Diff line change
Expand Up @@ -35,7 +35,7 @@ \chapter{\glsentrytext{linear_factor}}
\label{eqn:131}
\RVh \sim p(\Vh)
\end{align}
其中$p(\Vh)$是一个可分解的分布,满足$p(\Vh) = \prod_{i}^{}p(h_i)$,所以很容易从中采样。
其中$p(\Vh)$是一个\gls{factorial}分布,满足$p(\Vh) = \prod_{i}^{}p(h_i)$,所以很容易从中采样。
接下来,在给定因子的情况下,我们对实值的可观察变量进行抽样
\begin{align}
\label{eqn:132}
Expand Down Expand Up @@ -296,7 +296,7 @@ \section{\glsentrytext{sparse_coding}}
% 486


\firstgls{sparse_coding}\citep{Olshausen+Field-1996}是一个\gls{linear_factor},已作为无监督特征学习和特征提取机制进行了大量研究
\firstgls{sparse_coding}\citep{Olshausen+Field-1996}是一个\gls{linear_factor},已作为\gls{unsupervised}特征学习和特征提取机制进行了大量研究
严格地说,术语``\gls{sparse_coding}''是指在该模型中推断$\Vh$的值的过程,而``稀疏建模''是指设计和学习模型的过程,但是通常这两个概念都可以用术语``\gls{sparse_coding}''描述。
% 486

Expand Down Expand Up @@ -325,7 +325,7 @@ \section{\glsentrytext{sparse_coding}}
% 487 head

使用\gls{MLE}的方法来训练\gls{sparse_coding}模型是不可行的。
相反,训练在编码数据和训练\gls{decoder}之间交替,以在给定编码的情况下更好地重建数据
相反,为了在给定编码的情况下更好地重建数据,训练过程在编码数据和训练\gls{decoder}之间交替进行
稍后在\secref{sec:map_inference_and_sparse_coding}中,这种方法将被进一步证明为解决似然最大化问题的一种通用的近似方法。
% 487

Expand Down Expand Up @@ -361,40 +361,38 @@ \section{\glsentrytext{sparse_coding}}
% 487



不是所有的\gls{sparse_coding}方法都显式地构建了$p(\Vh)$$p(\Vx\mid\Vh)$
通常我们只是对学习一个带有激活值的特征的字典感兴趣,当使用这个推断过程时,这个激活值通常为0。
% 487 end

如果我们从Laplace先验中采样$\Vh$$\Vh$的元素实际上为零是一个零概率事件。
\gls{generative_model}本身并不稀疏,只有特征提取器是。
\citet{Goodfeli-et-al-TPAMI-Deep-PrePrint-2013-small}描述了不同模型族中的近似推断,和spike and slab\gls{sparse_coding}模型,其中先验的样本通常包含许多0。
\citet{Goodfeli-et-al-TPAMI-Deep-PrePrint-2013-small}描述了不同模型族中的近似推断,\gls{ss}\gls{sparse_coding}模型,其中先验的样本通常包含许多0。
% 488 head

与非参数化的\gls{encoder}结合的\gls{sparse_coding}方法原则上可以比任何特定的参数化的\gls{encoder}更好地最小化重构误差和对数先验的组合。
与非参数化\gls{encoder}结合的\gls{sparse_coding}方法原则上可以比任何特定的参数化\gls{encoder}更好地最小化重构误差和对数先验的组合。
另一个优点是\gls{encoder}没有泛化误差。
参数化的\gls{encoder}必须泛化地学习如何将$\Vx$映射到$\Vh$
对于与训练数据差异很大的异常的$\Vx$,所学习的参数化的\gls{encoder}可能无法找到对应精确重建的$\Vh$或稀疏的编码。
对于\gls{sparse_coding}模型的绝大多数形式,推断问题是凸的,优化过程将总是找到最优值(除非出现简并的情况,例如重复的权重向量)。
显然,稀疏和重构成本仍然可以在不熟悉的点上升,但这是归因于\gls{decoder}权重中的泛化误差,而不是\gls{encoder}中的泛化误差。
显然,稀疏和重构成本仍然可以在不熟悉的点上升,但这归因于\gls{decoder}权重中的泛化误差,而不是\gls{encoder}中的泛化误差。
\gls{sparse_coding}用作分类器的特征提取器时,而不是使用参数化的函数来预测时,基于优化的\gls{sparse_coding}模型的编码过程中泛化误差的减小可导致更好的泛化能力。
\citet{Coates2011b}证明了在对象识别任务中\gls{sparse_coding}特征比基于参数化的\gls{encoder}(如线性sigmoid \gls{AE})的特征拥有更好的泛化能力。
\citet{Coates2011b}证明了在对象识别任务中\gls{sparse_coding}特征比基于参数化的\gls{encoder}(如线性\gls{sigmoid}\gls{AE})的特征拥有更好的泛化能力。
受他们的工作启发,\citet{Goodfeli-et-al-TPAMI-Deep-PrePrint-2013-small}表明\gls{sparse_coding}的变体在其中极少标签(每类20个或更少标签)的情况中比其他特征提取器拥有更好的泛化能力。
% 488



非参数\gls{encoder}的主要缺点是在给定$\Vx$的情况下需要大量的时间来计算$\Vh$,因为非参数方法需要运行迭代算法。
\chapref{chap:autoencoders}中讲到的参数化的\gls{AE}方法仅使用固定数量的层,通常只有一层。
另一个缺点是它不直接通过非参数\gls{encoder}进行反向传播,这使得我们很难采用先使用无监督方式预训练\gls{sparse_coding}模型然后使用有监督方式对其进行微调的方法
另一个缺点是它不直接通过非参数\gls{encoder}进行反向传播,这使得我们很难采用先使用\gls{unsupervised}方式预训练\gls{sparse_coding}模型然后使用\gls{supervised}方式对其进行微调的方法
允许近似导数的\gls{sparse_coding}模型的修改版本确实存在但未被广泛使用\citep{Bradley+Bagnell-2009-small}。
% 488 end

像其他\gls{linear_factor}一样,\gls{sparse_coding}经常产生糟糕的样本,如\figref{fig:s3c_samples}所示。
即使当模型能够很好地重构数据并为分类器提供有用的特征时,也会发生这种情况。
这种现象原因是每个单独的特征可以很好地被学习到,但是隐含结点可分解的先验会导致模型包括每个生成的样本中的所有特征的随机子集。
the factorial prior on the hidden code results in the model including random subsets of all of the features in each generated sample.
这促使人们在深度模型中的最深层以及一些复杂成熟的浅层模型上施加一个不可分解的分布。
<bad>这种现象原因是每个单独的特征可以很好地被学习到,但是隐含结点\gls{factorial}先验会导致模型包括每个生成的样本中的所有特征的随机子集。
这促使人们在深度模型中的最深层以及一些复杂成熟的浅层模型上施加一个不\gls{factorial}的分布。

\begin{figure}[!htb]
\ifOpenSource
Expand Down
7 changes: 7 additions & 0 deletions terminology.tex
Original file line number Diff line number Diff line change
Expand Up @@ -5341,3 +5341,10 @@
description={deep network},
sort={deep network},
}


\newglossaryentry{ss}
{
name=尖峰和平板,
description={spike and slab},
}

0 comments on commit 2c04688

Please sign in to comment.