Learning Deep Architectures for AI 中文版 PDF 文档

发布于 2025-02-17 21:53:40 字数 1686 浏览 5 评论 0

理论结果表明,为了学习用于表示高层次的抽象(例如视觉、语言以及其他 AI 级别的任务)的复杂函数,我们需要深度结构。深度结构的组成包括了多层次的非线性操作,比如具有许多隐含层的神经网络,或者重用了许多子公式的复杂命题公式。

搜索深度结构的参数空间是一件很困难的任务,但是最近提出的诸如用于深度信念网络等的学习算法,对于探索这类问题取得了显著的成功,在某些领域达到了最新的水平。本书讨论深度学习算法的方法和原理,尤其是那些被充分用作基石的单层模型的非监督学习算法例如受限玻尔兹曼机(RBM),它用于构建深度信念网络等深度模型。

第二章 深层架构的理论优势
2.1 计算的复杂度
2.2 非正式的探讨
3.1 局域模板匹配的限制
3.2 学习分布的模型表示
第四章 深层神经网络
4.1 多层神经网络
4.2 训练深度神经网络的挑战
4.3 Unsupervised Learning for Deep Architectures
4.4 深层次生成结构
4.5 卷积神经网络
4.6 自编码器
第五章 能量模型和玻兹曼机
5.1 能量模型和期望(?experts) 乘积
5.1.1 隐含变量的引入
5.1.2 有条件的基于能量的模型
5.2 波兹曼机
5.3 限制玻尔兹曼机
5.3.1 RBM 的吉布斯采样
5.4 Contrastive Divergence(对比区分)
5.4.1 Justifying Contrastive Divergence(CD 的正确性验证)
5.4.2 对数散度的替代选择
5.4.3 吉布斯链模型中的对数似然梯度的截断
5.4.4、标准集是一个反例
第 6 章 深度学习架构的贪婪分层训练
6.1 深度信仰网络的分层训练
6.2 训练堆放的自动编码器
第七章 受限波尔兹曼机和自编码器的变种
7.1 自编码器和受限波尔兹曼机中的稀疏表示
7.1.1 为什么是稀疏表示
7.2 去噪自编码器
7.3 横向联系
7.4 条件 RBM 和暂时 RBM
7.5 因式分解的 RBMs
7.6 推广 RBMs 和对比分歧
第八章 DBN 层次联合优化的随机变化边界
8.1 分解波兹曼机为无限有向深度信念网络(DBNs)
8.2 逐层贪婪训练的可变理由
8.3 Joint Unsupervised Training of All the Layers
8.3.1 睡醒算法(死去活来算法)
8.3.2 将 DBN 转换为玻尔兹曼机(Boltzmann Machine)
第九章 展望未来
9.1 全区优化策略
9.1.1 作为可持续方法的深度信念网络 DBNs(Deep Belief Nets)的贪婪逐层训练
9.1.2 非监督向监督的过渡
9.1.3 控制温度
9.1.4 定型:采用课程的训练
9.2 为什么无监督学习如此重要
9.3 待解决的问题
第十章 结论
声明

下载地址:https://www.wenjiangs.com/wp-content/uploads/2025/02/9WkriRLwNq1OKKHF.zip

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据

关于作者

JSmiles

生命进入颠沛而奔忙的本质状态,并将以不断告别和相遇的陈旧方式继续下去。

文章
评论
84965 人气
更多

推荐作者

alipaysp_snBf0MSZIv

文章 0 评论 0

梦断已成空

文章 0 评论 0

瞎闹

文章 0 评论 0

寄意

文章 0 评论 0

似梦非梦

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文