图书介绍
深度学习基础与实践2025|PDF|Epub|mobi|kindle电子书版本百度云盘下载

- (美)乔希·帕特森(JoshPatterson),(美)亚当·吉布森(AdamGibson)著;郑明智译 著
- 出版社: 北京:人民邮电出版社
- ISBN:9787115515421
- 出版时间:2019
- 标注页数:366页
- 文件大小:126MB
- 文件页数:387页
- 主题词:机器学习-研究
PDF下载
下载说明
深度学习基础与实践PDF格式电子书版下载
下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!
(文件页数 要大于 标注页数,上中下等多册电子书除外)
注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具
图书目录
第1章 机器学习回顾1
1.1 学习的机器1
1.1.1 机器如何学习2
1.1.2 生物学的启发4
1.1.3 什么是深度学习5
1.1.4 钻进奇幻的兔子洞5
1.2 提出问题6
1.3 机器学习背后的数学:线性代数7
1.3.1 标量7
1.3.2 向量7
1.3.3 矩阵8
1.3.4 张量8
1.3.5 超平面8
1.3.6 相关数学运算8
1.3.7 将数据转换成向量9
1.3.8 方程组求解10
1.4 机器学习背后的数学:统计学12
1.4.1 概率12
1.4.2 条件概率14
1.4.3 后验概率14
1.4.4 分布15
1.4.5 样本与总体16
1.4.6 重采样方法16
1.4.7 选择性偏差17
1.4.8 似然17
1.5 机器学习如何工作17
1.5.1 回归17
1.5.2 分类19
1.5.3 聚类19
1.5.4 欠拟合与过拟合20
1.5.5 优化20
1.5.6 凸优化21
1.5.7 梯度下降22
1.5.8 SGD24
1.5.9 拟牛顿优化方法24
1.5.10 生成模型与判别模型25
1.6 逻辑回归25
1.6.1 逻辑函数26
1.6.2 理解逻辑回归的输出26
1.7 评估模型27
1.8 建立对机器学习的理解30
第2章 神经网络基础与深度学习31
2.1 神经网络31
2.1.1 生物神经元33
2.1.2 感知器34
2.1.3 多层前馈网络37
2.2 训练神经网络42
2.3 激活函数49
2.3.1 线性函数49
2.3.2 sigmoid函数49
2.3.3 tanh函数50
2.3.4 hard tanh函数51
2.3.5 softmax函数51
2.3.6 修正线性函数51
2.4 损失函数53
2.4.1 损失函数的符号53
2.4.2 用于回归的损失函数54
2.4.3 用于分类的损失函数56
2.4.4 用于重建的损失函数57
2.5 超参数58
2.5.1 学习率58
2.5.2 正则化59
2.5.3 动量59
2.5.4 稀疏59
第3章 深度网络基础60
3.1 定义深度学习60
3.1.1 什么是深度学习60
3.1.2 本章结构67
3.2 深度网络的通用构建原则67
3.2.1 参数68
3.2.2 层68
3.2.3 激活函数69
3.2.4 损失函数70
3.2.5 优化算法71
3.2.6 超参数73
3.2.7 小结77
3.3 深度网络的构造块77
3.3.1 RBM78
3.3.2 自动编码器82
3.3.3 变分自动编码器83
第4章 深度网络的主要架构85
4.1 UPN85
4.1.1 DBN86
4.1.2 GAN88
4.2 CNN91
4.2.1 生物学启发92
4.2.2 思路92
4.2.3 CNN架构概要93
4.2.4 输入层94
4.2.5 卷积层95
4.2.6 池化层101
4.2.7 全连接层102
4.2.8 CNN的其他应用102
4.2.9 CNN列表103
4.2.10 小结103
4.3 RNN103
4.3.1 时间维度建模104
4.3.2 三维空间输入105
4.3.3 为什么不是马尔可夫模型107
4.3.4 常见的RNN架构107
4.3.5 LSTM网络108
4.3.6 特定领域应用与混合网络114
4.4 递归神经网络115
4.4.1 网络架构115
4.4.2 递归神经网络的变体115
4.4.3 递归神经网络的应用116
4.5 小结与讨论116
4.5.1 深度学习会使其他算法过时吗116
4.5.2 不同的问题有不同的最佳方法117
4.5.3 什么时候需要深度学习117
第5章 建立深度网络118
5.1 将深度网络与适合的问题匹配118
5.1.1 列式数据与多层感知器119
5.1.2 图像与CNN119
5.1.3 时间序列与RNN120
5.1.4 使用混合网络121
5.2 DL4J工具套件121
5.2.1 向量化与DataVec121
5.2.2 运行时与ND4J121
5.3 DL4J API的基本概念123
5.3.1 加载与保存模型123
5.3.2 为模型获取输入124
5.3.3 建立模型架构124
5.3.4 训练与评估125
5.4 使用多层感知器网络对CSV数据建模126
5.4.1 建立输入数据128
5.4.2 确定网络架构128
5.4.3 训练模型131
5.4.4 评估模型131
5.5 利用CNN对手写图像建模132
5.5.1 使用LeNet CNN的Java代码示例132
5.5.2 加载及向量化输入图像134
5.5.3 DL4J中用于LeNet的网络架构135
5.5.4 训练CNN网络138
5.6 基于RNN的序列数据建模139
5.6.1 通过LSTM生成莎士比亚风格作品139
5.6.2 基于LSTM的传感器时间序列分类146
5.7 利用自动编码器检测异常152
5.7.1 自动编码器示例的Java代码列表152
5.7.2 设置输入数据156
5.7.3 自动编码器的网络结构与训练156
5.7.4 评估模型157
5.8 使用变分自动编码器重建MNIST数字158
5.8.1 重建MNIST数字的代码列表158
5.8.2 VAE模型的检验161
5.9 深度学习在自然语言处理中的应用163
5.9.1 使用Word2Vec的学习词嵌入163
5.9.2 具有段落向量的句子的分布式表示168
5.9.3 使用段落向量进行文档分类171
第6章 深度网络调优176
6.1 深度网络调优的基本概念176
6.1.1 建立深度网络的思路177
6.1.2 构建思路的步骤178
6.2 匹配输入数据与网络架构178
6.3 模型目标与输出层的关系180
6.3.1 回归模型的输出层180
6.3.2 分类模型的输出层180
6.4 处理层的数量、参数的数量和存储器182
6.4.1 前馈多层神经网络183
6.4.2 控制层和参数的数量183
6.4.3 估计网络内存需求185
6.5 权重初始化策略187
6.6 使用激活函数188
6.7 应用损失函数190
6.8 理解学习率191
6.8.1 使用参数更新比率192
6.8.2 关于学习率的具体建议193
6.9 稀疏性对学习的影响195
6.10 优化方法的应用195
6.11 使用并行化和 GPU更快地进行训练197
6.11.1 在线学习与并行迭代算法197
6.11.2 DL4J中的SGD并行199
6.11.3 GPU201
6.12 控制迭代和小批量的大小202
6.13 如何使用正则化203
6.13.1 使用先验函数正则化204
6.13.2 最大范数正则化204
6.13.3 Dropout205
6.13.4 其他正则化事项206
6.14 处理类别不平衡207
6.14.1 类别采样方法208
6.14.2 加权损失函数208
6.15 处理过拟合209
6.16 通过调优UI来使用网络统计信息210
6.16.1 检测不佳的权重初始化212
6.16.2 检测非混洗数据213
6.16.3 检测正则化的问题214
第7章 调优特定的深度网络架构217
7.1 CNN217
7.1.1 卷积架构常见的模式218
7.1.2 配置卷积层220
7.1.3 配置池化层224
7.1.4 迁移学习225
7.2 RNN226
7.2.1 网络输入数据和输入层227
7.2.2 输出层与RnnOutputLayer228
7.2.3 训练网络228
7.2.4 调试LSTM的常见问题230
7.2.5 填充与掩码230
7.2.6 掩码评估与评分231
7.2.7 循环网络架构的变体232
7.3 受限玻尔兹曼机232
7.3.1 隐藏层神经元与可用信息建模233
7.3.2 使用不同的单元234
7.3.3 用RBM正则化234
7.4 DBN235
7.4.1 利用动量235
7.4.2 使用正则化235
7.4.3 确定隐藏单元的数量236
第8章 向量化237
8.1 机器学习中的向量化方法237
8.1.1 为什么需要将数据向量化238
8.1.2 处理列式原始数据属性的策略240
8.1.3 特征工程与规范化技术241
8.2 使用DataVec进行ETL和向量化247
8.3 将图像数据向量化248
8.3.1 DL4J中的图像数据表示248
8.3.2 使用DataVec将图像数据与向量规范化250
8.4 将序列数据向量化251
8.4.1 序列数据源的主要变体251
8.4.2 使用DataVec将序列数据向量化252
8.5 将文本向量化256
8.5.1 词袋257
8.5.2 TF-IDF258
8.5.3 Word2Vec与VSM的比较261
8.6 使用图形261
第9章 在Spark上使用深度学习和DL4J262
9.1 在Spark和Hadoop上使用DL4J的介绍262
9.2 配置和调优Spark运行266
9.2.1 在Mesos上运行Spark267
9.2.2 在YARN中执行Spark268
9.2.3 Spark调优简要介绍269
9.2.4 对在Spark上运行的DL4J作业调优273
9.3 为Spark和DL4J建立Maven项目对象模型274
9.3.1 一个pom.xml文件依赖模板275
9.3.2 为CDH5.x设置POM文件279
9.3.3 为HDP2.4 创建POM文件279
9.4 Spark和Hadoop故障排除280
9.5 DL4J在Spark上的并行执行281
9.6 Spark平台上的DL4J API最佳实践284
9.7 多层感知器的Spark示例285
9.7.1 建立SparkMLP网络架构288
9.7.2 分布式训练与模型评估289
9.7.3 构建和执行DL4J Spark作业290
9.8 使用Spark和LSTM生成莎士比亚作品290
9.8.1 建立LSTM网络架构292
9.8.2 训练、跟踪进度及理解结果293
9.9 基于Spark上的CNN进行MNIST建模294
9.9.1 配置Spark作业和加载MNIST数据296
9.9.2 建立LeNetCNN架构与训练297
附录A 人工智能是什么299
附录B RL4J与强化学习307
附录C 每个人都需要了解的数字325
附录D 神经网络和反向传播:数学方法326
附录E 使用ND4J API330
附录F 使用DataVec341
附录G 从源代码构建DL4J350
附录H 设置DL4J项目352
附录I 为DL4J项目设置GPU356
附录J 解决DL4J安装上的问题359
关于作者365
关于封面365
热门推荐
- 2792795.html
- 1627706.html
- 3473756.html
- 2299785.html
- 3519170.html
- 2151930.html
- 3595110.html
- 2681432.html
- 3561647.html
- 3565178.html
- http://www.ickdjs.cc/book_2269910.html
- http://www.ickdjs.cc/book_912462.html
- http://www.ickdjs.cc/book_648678.html
- http://www.ickdjs.cc/book_3573262.html
- http://www.ickdjs.cc/book_1698382.html
- http://www.ickdjs.cc/book_3268176.html
- http://www.ickdjs.cc/book_3308399.html
- http://www.ickdjs.cc/book_3467570.html
- http://www.ickdjs.cc/book_3365099.html
- http://www.ickdjs.cc/book_2471334.html