深度学习入门:基于 Python 的理论与实现 PDF 文档

发布于 2024-04-28 05:30:50 字数 4745 浏览 21 评论 0

本书是深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术。书中使用 Python 3,尽量不依赖外部库或工具,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习。书中不仅介绍了深度学习和神经网络的概念、特征等基础知识,对误差反向传播法、卷积神经网络等也有深入讲解,此外还介绍了学习相关的实用技巧,自动驾驶、图像生成、强化学习等方面的应用,以及为什么加深层可以提高识别精度等为什么的问题。

本书适合深度学习初学者阅读,也可作为高校教材使用。

深度学习的浪潮已经汹涌澎湃了一段时间了,市面上相关的图书也已经出版了很多。其中,既有知名学者伊恩·古德费洛(Ian Goodfellow)等人撰写的系统介绍深度学习基本理论的《深度学习》,也有各种介绍深度学习框架的使用方法的入门书。你可能会问,现在再出一本关于深度学习的书,是不是“为时已晚”?其实并非如此,因为本书考察深度学习的角度非常独特,它的出版可以说是千呼万唤始出来。

目录
译者序
前言
第 1 章 Python 入门
1.1 Python 是什么
1.2 Python 的安装
1.2.1 Python 版本
1.2.2 使用的外部库
1.2.3 Anaconda 发行版
1.3 Python 解释器
1.3.1 算术计算
1.3.2 数据类型
1.3.3 变量
1.3.4 列表
1.3.5 字典
1.3.6 布尔型
1.3.7 if 语句
1.3.8 for 语句
1.3.9 函数
1.4 Python 脚本文件
1.4.1 保存为文件
1.4.2 类
1.5 NumPy
1.5.1 导入 NumPy
1.5.2 生成 NumPy 数组
1.5.3 NumPy 的算术运算
1.5.4 NumPy 的 N 维数组
1.5.5 广播
1.5.6 访问元素
1.6 Matplotlib
1.6.1 绘制简单图形
1.6.2 pyplot 的功能
1.6.3 显示图像
1.7 小结
第 2 章 感知机
2.1 感知机是什么
2.2 简单逻辑电路
2.2.1 与门
2.2.2 与非门和或门
2.3 感知机的实现
2.3.1 简单的实现
2.3.2 导入权重和偏置
2.3.3 使用权重和偏置的实现
2.4 感知机的局限性
2.4.1 异或门
2.4.2 线性和非线性
2.5 多层感知机
2.5.1 已有门电路的组合
2.5.2 异或门的实现
2.6 从与非门到计算机
2.7 小结
第 3 章 神经网络
3.1 从感知机到神经网络
3.1.1 神经网络的例子
3.1.2 复习感知机
3.1.3 激活函数登场
3.2 激活函数
3.2.1 sigmoid 函数
3.2.2 阶跃函数的实现
3.2.3 阶跃函数的图形
3.2.4 sigmoid 函数的实现
3.2.5 sigmoid 函数和阶跃函数的比较
3.2.6 非线性函数
3.2.7 ReLU 函数
3.3 多维数组的运算
3.3.1 多维数组
3.3.2 矩阵乘法
3.3.3 神经网络的内积
3.4 3 层神经网络的实现
3.4.1 符号确认
3.4.2 各层间信号传递的实现
3.4.3 代码实现小结
3.5 输出层的设计
3.5.1 恒等函数和 softmax 函数
3.5.2 实现 softmax 函数时的注意事项
3.5.3 softmax 函数的特征
3.5.4 输出层的神经元数量
3.6 手写数字识别
3.6.1 MNIST 数据集
3.6.2 神经网络的推理处理
3.6.3 批处理
3.7 小结
第 4 章 神经网络的学习
4.1 从数据中学习
4.1.1 数据驱动
4.1.2 训练数据和测试数据
4.2 损失函数
4.2.1 均方误差
4.2.2 交叉熵误差
4.2.3 mini-batch 学习
4.2.4 mini-batch 版交叉熵误差的实现
4.2.5 为何要设定损失函数
4.3 数值微分
4.3.1 导数
4.3.2 数值微分的例子
4.3.3 偏导数
4.4 梯度
4.4.1 梯度法
4.4.2 神经网络的梯度
4.5 学习算法的实现
4.5.1 2 层神经网络的类
4.5.2 mini-batch 的实现
4.5.3 基于测试数据的评价
4.6 小结
第 5 章 误差反向传播法
5.1 计算图
5.1.1 用计算图求解
5.1.2 局部计算
5.1.3 为何用计算图解题
5.2 链式法则
5.2.1 计算图的反向传播
5.2.2 什么是链式法则
5.2.3 链式法则和计算图
5.3 反向传播
5.3.1 加法节点的反向传播
5.3.2 乘法节点的反向传播
5.3.3 苹果的例子
5.4 简单层的实现
5.4.1 乘法层的实现
5.4.2 加法层的实现
5.5 激活函数层的实现
5.5.1 ReLU 层
5.5.2 Sigmoid 层
5.6 Affine/Softmax 层的实现
5.6.1 Affine 层
5.6.2 批版本的 Affine 层
5.6.3 Softmax-with-Loss 层
5.7 误差反向传播法的实现
5.7.1 神经网络学习的全貌图
5.7.2 对应误差反向传播法的神经网络的实现
5.7.3 误差反向传播法的梯度确认
5.7.4 使用误差反向传播法的学习
5.8 小结
第 6 章 与学习相关的技巧
6.1 参数的更新
6.1.1 探险家的故事
6.1.2 SGD
6.1.3 SGD 的缺点
6.1.4 Momentum
6.1.5 AdaGrad
6.1.6 Adam
6.1.7 使用哪种更新方法呢
6.1.8 基于 MNIST 数据集的更新方法的比较
6.2 权重的初始值
6.2.1 可以将权重初始值设为 0 吗
6.2.2 隐藏层的激活值的分布
6.2.3 ReLU 的权重初始值
6.2.4 基于 MNIST 数据集的权重初始值的比较
6.3 Batch Normalization
6.3.1 Batch Normalization 的算法
6.3.2 Batch Normalization 的评估
6.4 正则化
6.4.1 过拟合
6.4.2 权值衰减
6.4.3 Dropout
6.5 超参数的验证
6.5.1 验证数据
6.5.2 超参数的最优化
6.5.3 超参数最优化的实现
6.6 小结
第 7 章 卷积神经网络
7.1 整体结构
7.2 卷积层
7.2.1 全连接层存在的问题
7.2.2 卷积运算
7.2.3 填充
7.2.4 步幅
7.2.5 3 维数据的卷积运算
7.2.6 结合方块思考
7.2.7 批处理
7.3 池化层
7.4 卷积层和池化层的实现
7.4.1 4 维数组
7.4.2 基于 im2col 的展开
7.4.3 卷积层的实现
7.4.4 池化层的实现
7.5 CNN 的实现
7.6 CNN 的可视化
7.6.1 第 1 层权重的可视化
7.6.2 基于分层结构的信息提取
7.7 具有代表性的 CNN
7.7.1 LeNet
7.7.2 AlexNet
7.8 小结
第 8 章 深度学习
8.1 加深网络
8.1.1 向更深的网络出发
8.1.2 进一步提高识别精度
8.1.3 加深层的动机
8.2 深度学习的小历史
8.2.1 ImageNet
8.2.2 VGG
8.2.3 GoogLeNet
8.2.4 ResNet
8.3 深度学习的高速化
8.3.1 需要努力解决的问题
8.3.2 基于 GPU 的高速化
8.3.3 分布式学习
8.3.4 运算精度的位数缩减
8.4 深度学习的应用案例
8.4.1 物体检测
8.4.2 图像分割
8.4.3 图像标题的生成
8.5 深度学习的未来
8.5.1 图像风格变换
8.5.2 图像的生成
8.5.3 自动驾驶
8.5.4 Deep Q-Network(强化学习)
8.6 小结
附录 A Softmax-with-Loss 层的计算图
A.1 正向传播
A.2 反向传播
A.3 小结

下载地址:https://www.wenjiangs.com/wp-content/uploads/2024/04/BtASTx1yzzAiI23Q.zip

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据

关于作者

JSmiles

生命进入颠沛而奔忙的本质状态,并将以不断告别和相遇的陈旧方式继续下去。

0 文章
0 评论
84960 人气
更多

推荐作者

漫雪独思

文章 0 评论 0

垂暮老矣

文章 0 评论 0

鹊巢

文章 0 评论 0

萌酱

文章 0 评论 0

雨说

文章 0 评论 0

冰葑

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文