深度学习教程之深信念网络

上页

   正如autoencoder一样,我们使用stack玻耳兹曼机创建一个称为deep belief networks (DBNs)的分类器。

  在这种情况下,RBM的隐藏层t扮演作为RBM t+1的可见层。第一个RBM的输入层是整个网络的输入层,贪婪layer-wise训练的工作方式是这样的:

  1. 用所有样本使用对比差异训练第一个RBM t=1.

  2. 训练第二个RBM t=2,因为对于t=2的可见层是t=1的隐藏层,训练从送入输入样本到可见层t=1开始,向前传送播到隐藏层t=1,这个数据主要是初始化t=2的对比差异训练。

  3. 对所有层重复上述过程

  4. 类似于stacked autoencoder,在预先训练以后,网络能够通过连接一个或更多充分连接层拓展到最终RBM隐藏层,这形成了多层感知,能够通过反向传播进行很好的微调。

  这个过程类似于堆叠stacked autoencoders,但使用RBMS替代autoencoders,对比差异算法替代反向传播。

  (注意:更多关于构建和训练堆叠autoencoders或深的信念网络,查看示例代码 在这里 )。

deep belief network

 

下一页:深度学习教程之卷积网络

 

机器学习流行算法一览