您好,欢迎来到聚文网。
登录
免费注册
网站首页
|
搜索
热搜:
磁力片
|
漫画
|
购物车
0
我的订单
商品分类
首页
幼儿
文学
社科
教辅
生活
销量榜
深度学习高手笔记 卷1 基础算法
字数: 455000
装帧: 平装
出版社: 人民邮电出版社
作者: 刘岩(@大师兄)
出版日期: 2022-11-01
商品条码: 9787115596314
版次: 1
开本: 16开
页数: 272
出版年份: 2022
定价:
¥109.8
销售价:
登录后查看价格
¥{{selectedSku?.salePrice}}
库存:
{{selectedSku?.stock}}
库存充足
{{item.title}}:
{{its.name}}
加入购物车
立即购买
加入书单
收藏
精选
¥5.83
世界图书名著昆虫记绿野仙踪木偶奇遇记儿童书籍彩图注音版
¥5.39
正版世界名著文学小说名家名译中学生课外阅读书籍图书批发 70册
¥8.58
简笔画10000例加厚版2-6岁幼儿童涂色本涂鸦本绘画本填色书正版
¥5.83
世界文学名著全49册中小学生青少年课外书籍文学小说批发正版
¥4.95
全优冲刺100分测试卷一二三四五六年级上下册语文数学英语模拟卷
¥8.69
父与子彩图注音完整版小学生图书批发儿童课外阅读书籍正版1册
¥24.2
好玩的洞洞拉拉书0-3岁宝宝早教益智游戏书机关立体翻翻书4册
¥7.15
幼儿认字识字大王3000字幼儿园中班大班学前班宝宝早教启蒙书
¥11.55
用思维导图读懂儿童心理学培养情绪管理与性格培养故事指导书
¥19.8
少年读漫画鬼谷子全6册在漫画中学国学小学生课外阅读书籍正版
¥64
科学真好玩
¥12.7
一年级下4册·读读童谣和儿歌
¥38.4
原生态新生代(传统木版年画的当代传承国际研讨会论文集)
¥11.14
法国经典中篇小说
¥11.32
上海的狐步舞--穆时英(中国现代文学馆馆藏初版本经典)
¥21.56
猫的摇篮(精)
¥30.72
幼儿园特色课程实施方案/幼儿园生命成长启蒙教育课程丛书
¥24.94
旧时风物(精)
¥12.04
三希堂三帖/墨林珍赏
¥6.88
寒山子庞居士诗帖/墨林珍赏
¥6.88
苕溪帖/墨林珍赏
¥6.88
楷书王维诗卷/墨林珍赏
¥9.46
兰亭序/墨林珍赏
¥7.74
祭侄文稿/墨林珍赏
¥7.74
蜀素帖/墨林珍赏
¥12.04
真草千字文/墨林珍赏
¥114.4
进宴仪轨(精)/中国古代舞乐域外图书
¥24.94
舞蹈音乐的基础理论与应用
编辑推荐
有别于以卷积神经网络、循环神经网络等基础概念为核心的同类书籍,本书梳理了近10年来深度学习方向诞生的算法,从算法理论、算法源码、实验结果等方面对算法进行分析和介绍,重点讨论深度学习在卷积神经网络、自然语言处理、模型优化等方向的发展历程以及各个算法的优缺点,分析各个算法是如何针对先前算法的若干问题提出解决方案的。 本书共三篇,第一篇卷积神经网络,从基础骨干网络、轻量级CNN、模型架构搜索3个方向展开,介绍计算机视觉方向的里程碑算法;第二篇自然语言处理,介绍基础序列模型和模型预训练;第三篇模型优化,介绍模型优化方法。
内容简介
本书通过扎实、详细的内容和清晰的结构,从算法理论、算法源码、实验结果等方面对深度学习算法进行分析和介绍。本书共三篇,第一篇主要介绍深度学习在计算机视觉方向的一些卷积神经网络,从基础骨干网络、轻量级 CNN、模型架构搜索 3 个方向展开,介绍计算机视觉方向的里程碑算法;第二篇主要介绍深度学习在自然语言处理方向的重要突破,包括基础序列模型和模型预训练;第三篇主要介绍深度学习在模型优化上的进展,包括模型优化方法。 通过阅读本书,读者可以深入理解主流的深度学习基础算法,搭建起自己的知识体系,领会算法的本质,学习模型优化方法。无论是从事深度学习科研的教师及学生,还是从事算法落地实践的工作人员,都能从本书中获益。
作者简介
刘岩, 澳门大学计算机科学专业硕士, 目前就职于京东零售-技术与数据中心。在学生期间从事人工智能相关研究,发表多篇计算机视觉、自然语言处理等方向的专利和学术论文。毕业后从事深度学习相关工作,擅长前沿人工智能算法的原理分析和应用落地,擅长计算机视觉、自然语言处理等方向的技术, 先后参与并负责了多个深度学习算法在不同场景的业务落地,如光学字符识别、公式识别、人脸识别、手势识别、视频抠像、文本分类/命名实体识别、预训练语言模型、语音识别、图神经网络等。目前主要负责电商场景下预训练语言模型的研发以及舆情风险的智能识别与治理。他的知乎账号: 大师兄。
目录
第1章基础骨干网络3
1.1起源:LeNet-5和AlexNet4
1.1.1从LeNet-5开始4
1.1.2觉醒:AlexNet6
1.2更深:VGG11
1.2.1VGG介绍11
1.2.2VGG的训练和测试13
1.3更宽:GoogLeNet14
1.3.1背景知识14
1.3.2Inceptionv117
1.3.3GoogLeNet19
1.3.4Inceptionv219
1.3.5Inceptionv320
1.3.6Inceptionv421
1.3.7Inception-ResNet23
1.4跳跃连接:ResNet26
1.4.1残差网络26
1.4.2残差网络背后的原理28
1.4.3残差网络与模型集成33
1.5注意力:SENet33
1.5.1SE块33
1.5.2SE-Inception和SE-ResNet34
1.5.3SENet的复杂性分析35
1.5.4小结35
1.6更密:DenseNet36
1.6.1DenseNet算法解析及源码实现37
1.6.2压缩层38
1.6.3小结38
1.7模型集成:DPN39
1.7.1高阶RNN、DenseNet和残差网络39
1.7.2DPN详解41
1.7.3小结.42
1.8像素向量:iGPT43
1.8.1iGPT详解44
1.8.2实验结果分析48
1.8.3小结49
1.9Visual Transformer之Swin Transformer49
1.9.1网络结构详解50
1.9.2Swin Transformer家族59
1.9.3小结.60
1.10Vision Transformer之CSWin Transformer60
1.10.1CSWin Transformer概述61
1.10.2十字形窗口自注意力机制61
1.10.3局部加强位置编码62
1.10.4CSWin Transformer块63
1.10.5CSWin Transformer的复杂度63
1.10.6小结64
1.11MLP:MLP-Mixer64
1.11.1网络结构64
1.11.2讨论67
第2章轻量级CNN68
2.1SqueezeNet68
2.1.1SqueezeNet的压缩策略69
2.1.2点火模块69
2.1.3SqueezeNet的网络结构70
2.1.4SqueezeNet的性能72
2.1.5小结72
2.2MobileNet v1和MobileNet v273
2.2.1MobileNet v173
2.2.2MobileNet v277
2.2.3小结79
2.3Xception80
2.3.1Inception回顾80
2.3.2Xception详解81
2.3.3小结82
2.4ResNeXt82
2.4.1从全连接讲起83
2.4.2简化Inception83
2.4.3ResNeXt详解84
2.4.4分组卷积84
2.4.5小结85
2.5ShuffleNet v1和ShuffleNet v285
2.5.1ShuffleNetv185
2.5.2ShuffleNetv288
2.5.3小结92
2.6CondenseNet92
2.6.1分组卷积的问题93
2.6.2可学习分组卷积93
2.6.3架构设计96
2.6.4小结96
第3章模型架构搜索97
3.1PolyNet97
3.1.1结构多样性98
3.1.2多项式模型98
3.1.3对照实验100
3.1.4Very Deep PolyNet101
3.1.5小结102
3.2NAS103
3.2.1NAS-CNN103
3.2.2NAS-RNN106
3.2.3小结108
3.3NASNet108
3.3.1NASNet控制器109
3.3.2NASNet的强化学习110
3.3.3计划DropPath110
3.3.4其他超参数111
3.3.5小结111
3.4PNASNet112
3.4.1更小的搜索空间112
3.4.2SMBO113
3.4.3代理函数114
3.4.4PNASNet的实验结果115
3.4.5小结116
3.5AmoebaNet116
3.5.1搜索空间117
3.5.2年龄进化118
3.5.3AmoebaNet的网络结构120
3.5.4小结121
3.6MnasNet121
3.6.1优化目标122
3.6.2搜索空间124
3.6.3优化策略125
3.6.4小结126
3.7MobileNetv3126
3.7.1参考结构127
3.7.2网络搜索127
3.7.3人工设计129
3.7.4修改SE块131
3.7.5Lite R-ASPP132
3.7.6小结133
3.8EfficientNet v1133
3.8.1背景知识133
3.8.2EfficientNet v1详解135
3.8.3小结137
3.9EfficientNet v2137
3.9.1算法动机137
3.9.2EfficientNet v2详解139
3.10RegNet141
3.10.1设计空间141
3.10.2RegNet详解145
3.10.3小结151
第二篇自然语言处理
第4章基础序列模型155
4.1LSTM和GRU155
4.1.1序列模型的背景155
4.1.2LSTM157
4.1.3GRU159
4.1.4其他LSTM159
4.2注意力机制160
4.2.1机器翻译的注意力机制160
4.2.2图解注意力机制161
4.2.3经典注意力模型166
4.2.4小结170
4.3Transformer170
4.3.1Transformer详解171
4.3.2位置嵌入177
4.3.3小结178
4.4Transformer-XL179
4.4.1Transformer的缺点179
4.4.2相对位置编码181
4.4.3Transformer-XL详解183
4.4.4小结185
第5章模型预训练186
5.1RNN语言模型187
5.1.1语言模型中的RNN187
5.1.2训练数据188
5.1.3训练细节188
5.2ELMo189
5.2.1双向语言模型189
5.2.2ELMo详解191
5.2.3应用ELMo到下游任务192
5.2.4小结.192
5.3GPT-1、GPT-2和GPT-3192
5.3.1GPT-1:无监督学习193
5.3.2GPT-2:多任务学习196
5.3.3GPT-3:海量参数197
5.3.4小结200
5.4BERT200
5.4.1BERT详解201
5.4.2小结205
5.5BERT“魔改”之RoBERTa、ALBERT、MT-DNN和XLM205
5.5.1成熟版BERT:RoBERTa206
5.5.2更快的BERT:ALBERT207
5.5.3多任务BERT:MT-DNN207
5.5.4多语言BERT:XLM209
5.5.5小结211
5.6XLNet211
5.6.1背景知识.212
5.6.2XLNet详解213
5.6.3小结.216
5.7ERNIE(清华大学)216
5.7.1加入知识图谱的动机217
5.7.2异构信息融合217
5.7.3DAE.220
5.7.4ERNIE-T的微调220
5.7.5小结221
5.8ERNIE(百度)和ERNIE2.0221
5.8.1ERNIE-B222
5.8.2ERNIE2.0.223
5.8.3小结226
第三篇模型优化
第6章模型优化方法229
6.1Dropout230
6.1.1什么是Dropout.230
6.1.2Dropout的数学原理231
6.1.3Dropout是一个正则网络232
6.1.4CNN的Dropout232
6.1.5RNN的Dropout233
6.1.6Dropout的变体234
6.1.7小结.236
6.2BN237
6.2.1BN详解237
6.2.2BN的背后原理240
6.2.3小结.243
6.3LN.243
6.3.1BN的问题.244
6.3.2LN详解.244
6.3.3对照实验245
6.3.4小结247
6.4WN247
6.4.1WN的计算247
6.4.2WN的原理248
6.4.3BN和WN的关系249
6.4.4WN的参数初始化249
6.4.5均值BN.249
6.4.6小结249
6.5IN250
6.5.1IST中的IN250
6.5.2IN与BN对比250
6.5.3TensorFlow中的IN.251
6.5.4小结.252
6.6GN252
6.6.1GN算法252
6.6.2GN的源码253
6.6.3GN的原理253
6.6.4小结253
6.7SN254
6.7.1SN详解.254
6.7.2SN的优点.256
6.7.3小结256
×
Close
添加到书单
加载中...
点此新建书单
×
Close
新建书单
标题:
简介:
蜀ICP备2024047804号
Copyright 版权所有 © jvwen.com 聚文网