深度学习教程之深信念网络
正如autoencoder一样,我们使用stack玻耳兹曼机创建一个称为deep belief networks (DBNs)的分类器。
在这种情况下,RBM的隐藏层t扮演作为RBM t+1的可见层。第一个RBM的输入层是整个网络的输入层,贪婪layer-wise训练的工作方式是这样的:
- 用所有样本使用对比差异训练第一个RBM t=1.
- 训练第二个RBM t=2,因为对于t=2的可见层是t=1的隐藏层,训练从送入输入样本到可见层t=1开始,向前传送播到隐藏层t=1,这个数据主要是初始化t=2的对比差异训练。
- 对所有层重复上述过程
- 类似于stacked autoencoder,在预先训练以后,网络能够通过连接一个或更多充分连接层拓展到最终RBM隐藏层,这形成了多层感知,能够通过反向传播进行很好的微调。
这个过程类似于堆叠stacked autoencoders,但使用RBMS替代autoencoders,对比差异算法替代反向传播。
(注意:更多关于构建和训练堆叠autoencoders或深的信念网络,查看示例代码 在这里 )。
下一页:深度学习教程之卷积网络