您好,欢迎来到聚文网。 登录 免费注册
深度学习:从基础到实践(全2册)

深度学习:从基础到实践(全2册)

本书采用通俗易懂的讲解方式,搭配近千张图例与示例,深入浅出的讲述了深度学习的基本概念与理论知识,不涉及复杂的数学内容,零基础小白也能轻松掌握!
  • 字数: 1317000
  • 装帧: 平装
  • 出版社: 人民邮电出版社
  • 作者: (美)安德鲁·格拉斯纳 著 罗家佳 译
  • 出版日期: 2022-12-01
  • 商品条码: 9787115554512
  • 版次: 1
  • 开本: 16开
  • 页数: 824
  • 出版年份: 2022
定价:¥199.8 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
编辑推荐
1.“计算机图形研究领域最受尊敬的天才之一”Andrew Glassner编写。 2. 基本概念+理论,不涉及复杂的数学内容。 3. 近千张图和简单的例子,由浅入深地讲解深度学习的相关知识。
内容简介
本书从基本概念和理论入手,通过近千张图和简单的例子由浅入深地讲解深度学习的相关知识,且不涉及复杂的数学内容。
本书分为上下两册。上册着重介绍深度学习的基础知识,旨在帮助读者建立扎实的知识储备,主要介绍随机性与基础统计学、训练与测试、过拟合与欠拟合、神经元、学习与推理、数据准备、分类器、集成算法、前馈网络、激活函数、反向传播等内容。下册介绍机器学习的scikit-learn库和深度学习的Keras库(这两种库均基于Python语言),以及卷积神经网络、循环神经网络、自编码器、强化学习、生成对抗网络等内容,还介绍了一些创造性应用,并给出了一些典型的数据集,以帮助读者更好地了解学习。
本书适合想要了解和使用深度学习的人阅读,也可作为深度学习教学培训领域的入门级参考用书。
作者简介
Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。”
目录
《深度学习:从基础到实践.上册》
第1章机器学习与深度学习入门1
1.1为什么这一章出现在这里1
1.1.1从数据中提取含义1
1.1.2专家系统3
1.2从标记数据中学习4
1.2.1一种学习策略5
1.2.2一种计算机化的学习策略6
1.2.3泛化8
1.2.4让我们仔细看看学习过程9
1.3监督学习10
1.3.1分类10
1.3.2回归11
1.4无监督学习12
1.4.1聚类13
1.4.2降噪13
1.4.3降维14
1.5生成器16
1.6强化学习18
1.7深度学习19
1.8接下来会讲什么22
参考资料22
第2章随机性与基础统计学24
2.1为什么这一章出现在这里24
2.2随机变量24
2.3一些常见的分布29
2.3.1均匀分布30
2.3.2正态分布31
2.3.3伯努利分布34
2.3.4多项式分布34
2.3.5期望值35
2.4独立性35
2.5抽样与放回36
2.5.1有放回抽样36
2.5.2无放回抽样37
2.5.3做选择38
2.6Bootstrapping算法38
2.7高维空间41
2.8协方差和相关性43
2.8.1协方差43
2.8.2相关性44
2.9Anscombe四重奏47
参考资料48
第3章概率50
3.1为什么这一章出现在这里50
3.2飞镖游戏50
3.3初级概率学52
3.4条件概率52
3.5联合概率55
3.6边际概率57
3.7测量的正确性58
3.7.1样本分类58
3.7.2混淆矩阵60
3.7.3混淆矩阵的解释62
3.7.4允许错误分类64
3.7.5准确率65
3.7.6精度66
3.7.7召回率67
3.7.8关于精度和召回率68
3.7.9其他方法69
3.7.10同时使用精度和召回率71
3.7.11f1分数72
3.8混淆矩阵的应用73
参考资料77
第4章贝叶斯定理78
4.1为什么这一章出现在这里78
4.2频率论者法则以及贝叶斯法则78
4.2.1频率论者法则79
4.2.2贝叶斯法则79
4.2.3讨论79
4.3抛硬币80
4.4这枚硬币公平吗81
4.4.1贝叶斯定理86
4.4.2贝叶斯定理的注意事项87
4.5生活中的贝叶斯定理89
4.6重复贝叶斯定理91
4.6.1后验-先验循环92
4.6.2例子:挑到的是哪种硬币93
4.7多个假设97
参考资料101
第5章曲线和曲面102
5.1为什么这一章出现在这里102
5.2引言102
5.3导数103
5.4梯度108
参考资料112
第6章信息论113
6.1为什么这一章出现在这里113
6.2意外程度与语境113
6.2.1意外程度114
6.2.2语境114
6.3用比特作为单位115
6.4衡量信息116
6.5事件的大小117
6.6自适应编码117
6.7熵122
6.8交叉熵123
6.8.1两种自适应编码123
6.8.2混合编码125
6.9KL散度127
参考资料128
第7章分类130
7.1为什么这一章出现在这里130
7.2二维分类130
7.3二维多分类134
7.4多维二元分类135
7.4.1one-versus-rest135
7.4.2one-versus-one136
7.5聚类138
7.6维度灾难141
参考资料149
第8章训练与测试150
8.1为什么这一章出现在这里150
8.2训练150
8.3测试数据153
8.4验证数据156
8.5交叉验证157
8.6对测试结果的利用160
参考资料161
第9章过拟合与欠拟合162
9.1为什么这一章出现在这里162
9.2过拟合与欠拟合162
9.2.1过拟合162
9.2.2欠拟合164
9.3过拟合数据164
9.4及早停止167
9.5正则化168
9.6偏差与方差169
9.6.1匹配潜在数据170
9.6.2高偏差,低方差172
9.6.3低偏差,高方差173
9.6.4比较这些曲线173
9.7用贝叶斯法则进行线拟合175
参考资料179
第10章神经元181
10.1为什么这一章出现在这里181
10.2真实神经元181
10.3人工神经元182
10.3.1感知机183
10.3.2感知机的历史183
10.3.3现代人工神经元184
10.4小结188
参考资料188
第11章学习与推理190
11.1为什么这一章出现在这里190
11.2学习的步骤190
11.2.1表示190
11.2.2评估192
11.2.3优化193
11.3演绎和归纳193
11.4演绎194
11.5归纳199
11.5.1机器学习中的归纳术语201
11.5.2归纳谬误202
11.6组合推理203
11.7操作条件204
参考资料206
第12章数据准备208
12.1为什么这一章出现在这里208
12.2数据变换208
12.3数据类型210
12.4数据清理基础212
12.4.1数据清理212
12.4.2现实中的数据清理213
12.5归一化和标准化213
12.5.1归一化213
12.5.2标准化214
12.5.3保存数据的转换方式215
12.5.4转换方式216
12.6特征选择217
12.7降维217
12.7.1主成分分析217
12.7.2图像的标准化和PCA222
12.8转换226
12.9切片处理229
12.9.1逐样本处理230
12.9.2逐特征处理230
12.9.3逐元素处理231
12.10交叉验证转换232
参考资料234
第13章分类器236
13.1为什么这一章出现在这里236
13.2分类器的种类236
13.3k近邻法237
13.4支持向量机241
13.5决策树247
13.5.1构建决策树250
13.5.2分离节点253
13.5.3控制过拟合255
13.6朴素贝叶斯255
13.7讨论259
参考资料260
第14章集成算法261
14.1为什么这一章出现在这里261
14.2集成方法261
14.3投票262
14.4套袋算法262
14.5随机森林264
14.6极端随机树265
14.7增强算法265
参考资料270
第15章scikit-learn272
15.1为什么这一章出现在这里272
15.2介绍273
15.3Python约定273
15.4估算器276
15.4.1创建276
15.4.2学习fit()用法277
15.4.3用predict()预测278
15.4.4decision_function(),predict_proba()279
15.5聚类279
15.6变换282
15.7数据精化286
15.8集成器288
15.9自动化290
15.9.1交叉验证290
15.9.2超参数搜索292
15.9.3枚举型网格搜索294
15.9.4随机型网格搜索300
15.9.5pipeline300
15.9.6决策边界307
15.9.7流水线式变换308
15.10数据集309
15.11实用工具311
15.12结束语312
参考资料312
第16章前馈网络314
16.1为什么这一章出现在这里314
16.2神经网络图314
16.3同步与异步流316
16.4权重初始化317
参考资料320
第17章激活函数321
17.1为什么这一章出现在这里321
17.2激活函数可以做什么321
17.3基本的激活函数324
17.3.1线性函数324
17.3.2阶梯状函数325
17.4阶跃函数325
17.5分段线性函数327
17.6光滑函数329
17.7激活函数画廊333
17.8归一化指数函数333
参考资料335
第18章反向传播336
18.1为什么这一章出现在这里336
18.2一种非常慢的学习方式337
18.2.1缓慢的学习方式339
18.2.2更快的学习方式340
18.3现在没有激活函数341
18.4神经元输出和网络误差342
18.5微小的神经网络345
18.6第1步:输出神经元的delta347
18.7第2步:使用delta改变权重353
18.8第3步:其他神经元的delta356
18.9实际应用中的反向传播359
18.10使用激活函数363
18.11学习率367
18.12讨论374
18.12.1在一个地方的反向传播374
18.12.2反向传播不做什么374
18.12.3反向传播做什么375
18.12.4保持神经元快乐375
18.12.5小批量377
18.12.6并行更新378
18.12.7为什么反向传播很有吸引力378
18.12.8反向传播并不是有保证的379
18.12.9一点历史379
18.12.10深入研究数学380
参考资料381
第19章优化器383
19.1为什么这一章出现在这里383
19.2几何误差383
19.2.1最小值、最大值、平台和鞍部383
19.2.2作为二维曲线的误差386
19.3调整学习率388
19.3.1固定大小的更新388
19.3.2随时间改变学习率394
19.3.3衰减规划396
19.4更新策略398
19.4.1批梯度下降398
19.4.2随机梯度下降400
19.4.3minibatch梯度下降401
19.5梯度下降变体403
19.5.1动量403
19.5.2Nesterov动量408
19.5.3Adagrad410
19.5.4Adadelta和RMSprop411
19.5.5Adam413
19.6优化器选择414
参考资料415
《深度学习:从基础到实践.下册》
第20章深度学习417
20.1为什么这一章出现在这里417
20.2深度学习概述417
20.3输入层和输出层419
20.3.1输入层419
20.3.2输出层420
20.4深度学习层纵览420
20.4.1全连接层421
20.4.2激活函数421
20.4.3dropout422
20.4.4批归一化423
20.4.5卷积层424
20.4.6池化层425
20.4.7循环层426
20.4.8其他工具层427
20.5层和图形符号总结428
20.6一些例子429
20.7构建一个深度学习器434
20.8解释结果435
参考资料440
第21章卷积神经网络441
21.1为什么这一章出现在这里441
21.2介绍441
21.2.1“深度”的两重含义442
21.2.2放缩后的值之和443
21.2.3权重共享445
21.2.4局部感知域446
21.2.5卷积核447
21.3卷积447
21.3.1过滤器450
21.3.2复眼视图452
21.3.3过滤器的层次结构453
21.3.4填充458
21.3.5步幅459
21.4高维卷积462
21.4.1具有多个通道的过滤器463
21.4.2层次结构的步幅465
21.5一维卷积466
21.61×1卷积466
21.7卷积层468
21.8转置卷积469
21.9卷积网络样例472
21.9.1VGG16475
21.9.2有关过滤器的其他内容:第1部分477
21.9.3有关过滤器的其他内容:第2部分481
21.10对手483
参考资料485
第22章循环神经网络488
22.1为什么这一章出现在这里488
22.2引言489
22.3状态490
22.4RNN单元的结构494
22.4.1具有更多状态的单元496
22.4.2状态值的解释498
22.5组织输入498
22.6训练RNN500
22.7LSTM和GRU502
22.7.1门503
22.7.2LSTM505
22.8RNN的结构508
22.8.1单个或多个输入和输出508
22.8.2深度RNN510
22.8.3双向RNN511
22.8.4深度双向RNN512
22.9一个例子513
参考资料517
第23章Keras第1部分520
23.1为什么这一章出现在这里520
23.1.1本章结构520
23.1.2笔记本521
23.1.3Python警告521
23.2库和调试521
23.2.1版本和编程风格522
23.2.2Python编程和调试522
23.3概述523
23.3.1什么是模型524
23.3.2张量和数组524
23.3.3设置Keras524
23.3.4张量图像的形状525
23.3.5GPU和其他加速器527
23.4准备开始528
23.5准备数据530
23.5.1重塑530
23.5.2加载数据536
23.5.3查看数据537
23.5.4训练-测试拆分541
23.5.5修复数据类型541
23.5.6归一化数据542
23.5.7固定标签544
23.5.8在同一个地方进行预处理547
23.6制作模型548
23.6.1将网格转换为列表548
23.6.2创建模型550
23.6.3编译模型554
23.6.4模型创建摘要556
23.7训练模型557
23.8训练和使用模型559
23.8.1查看输出560
23.8.2预测562
23.8.3训练历史分析566
23.9保存和加载567
23.9.1将所有内容保存在一个文件中567
23.9.2仅保存权重568
23.9.3仅保存架构568
23.9.4使用预训练模型569
23.9.5保存预处理步骤569
23.10回调函数570
23.10.1检查点570
23.10.2学习率572
23.10.3及早停止573
参考资料575
第24章Keras第2部分577
24.1为什么这一章出现在这里577
24.2改进模型577
24.2.1超参数计数577
24.2.2改变一个超参数578
24.2.3其他改进方法580
24.2.4再增加一个全连接层581
24.2.5少即是多582
24.2.6添加dropout584
24.2.7观察587
24.3使用scikit-learn588
24.3.1Keras包装器588
24.3.2交叉验证591
24.3.3归一化交叉验证594
24.3.4超参数搜索596
24.4卷积网络602
24.4.1工具层603
24.4.2为CNN准备数据604
24.4.3卷积层606
24.4.4对MNIST使用卷积611
24.4.5模式619
24.4.6图像数据增强621
24.4.7合成数据623
24.4.8CNN的参数搜索624
24.5RNN624
24.5.1生成序列数据625
24.5.2RNN数据准备627
24.5.3创建并训练RNN631
24.5.4分析RNN性能634
24.5.5一个更复杂的数据集639
24.5.6深度RNN641
24.5.7更多数据的价值643
24.5.8返回序列646
24.5.9有状态的RNN649
24.5.10时间分布层650
24.5.11生成文本653
24.6函数式API658
24.6.1输入层659
24.6.2制作函数式模型660
参考资料664
第25章自编码器665
25.1为什么这一章出现在这里665
25.2引言666
25.2.1有损编码和无损编码666
25.2.2区域编码667
25.2.3混合展示669
25.3最简单的自编码器671
25.4更好的自编码器675
25.5探索自编码器677
25.5.1深入地观察隐藏变量677
25.5.2参数空间679
25.5.3混合隐藏变量683
25.5.4对不同类型的输入进行预测684
25.6讨论685
25.7卷积自编码器685
25.7.1混合卷积自编码器中的隐藏变量688
25.7.2在CNN中对不同类型的输入进行预测689
25.8降噪689
25.9VAE691
25.9.1隐藏变量的分布691
25.9.2VAE的结构692
25.10探索VAE697
参考资料703
第26章强化学习704
26.1为什么这一章出现在这里704
26.2目标704
26.3强化学习的结构708
26.3.1步骤1:智能体选择一个动作709
26.3.2步骤2:环境做出响应710
26.3.3步骤3:智能体进行自我更新711
26.3.4简单版本的变体712
26.3.5回到主体部分713
26.3.6保存经验714
26.3.7奖励714
26.4翻转718
26.5L学习719
26.6Q学习728
26.6.1Q值与更新729
26.6.2Q学习策略731
26.6.3把所有东西放在一起732
26.6.4显而易见而又被忽略的事实733
26.6.5Q学习的动作734
26.7SARSA739
26.7.1实际中的SARSA741
26.7.2对比Q学习和SARSA744
26.8强化学习的全貌748
26.9经验回放749
26.10两个应用750
参考资料751
第27章生成对抗网络753
27.1为什么这一章出现在这里753
27.2一个比喻:伪造钞票754
27.2.1从经验中学习756
27.2.2用神经网络伪造757
27.2.3一个学习回合759
27.3为什么要用“对抗”760
27.4GAN的实现760
27.4.1鉴别器761
27.4.2生成器761
27.4.3训练GAN762
27.4.4博弈763
27.5实际操作中的GAN764
27.6DCGAN769
27.7挑战771
27.7.1使用大样本772
27.7.2模态崩溃772
参考资料773
第28章创造性应用775
28.1为什么这一章出现在这里775
28.2可视化过滤器775
28.2.1选择网络775
28.2.2可视化一个过滤器776
28.2.3可视化层778
28.3deepdreaming779
28.4神经风格迁移782
28.4.1在矩阵中捕获风格783
28.4.2宏观蓝图784
28.4.3内容损失785
28.4.4风格损失786
28.4.5实现风格迁移789
28.4.6讨论793
28.5为本书生成更多的内容794
参考资料795
第29章数据集797
29.1公共数据集797
29.2MNIST和Fashion-MNIST797
29.3库的内建数据集798
29.3.1scikit-learn798
29.3.2Keras798

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网