您好,欢迎来到聚文网。 登录 免费注册
深度学习必学的十个问题(理论与实践)

深度学习必学的十个问题(理论与实践)

  • 字数: 205
  • 出版社: 清华大学
  • 作者: 李轩涯//张暐|责编:贾斌
  • 商品条码: 9787302577164
  • 版次: 1
  • 开本: 16开
  • 页数: 119
  • 出版年份: 2021
  • 印次: 1
定价:¥49.8 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
\\\\\\\\\\\\\\\"深度学习是目前最流行的技术领域。本书兼顾了数学上的理解和代码实践,内容主要包括基础知识和深度学习模型。第1章 介绍深度学习的简洁发展思路和表示学习机制; 第2章、第3章介绍神经网络的基于梯度的优化方法、神经网络的优化难点以及相应的解决方法; 第4章讨论神经网络遇到的过拟合问题; 第5章分析神经网络的最小组成部分——神经元; 第6章讨论三种方案解决深层网络的训练难题: 批标准化、SELU、ResNet; 第7章、第8章讲述了两种重要的神经网络模型: 卷积神经网络和循环神经网络; 第9章讨论了对于神经网络的无监督学习方式; 第10章详细讨论以变分自编码器和对抗生成网络为代表的概率生成网络。 本书适合对于深度学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。 \\\\\\\\\\\\\\\"
作者简介
李轩涯,中国计算机学会杰出会员、常务理事,中国计算机实践教育联合会副理事长。现主管百度校企合作、校企联合人才培养、校园粉丝生态圈,帮助百度技术、人才及产品品牌在高校领域的推广与影响力传播。
目录
第1章作为机器学习模型的神经网络 1.1表示学习 1.2感知器与神经网络 1.3使用keras 第2章神经网络的训练 2.1基于梯度的一阶优化 2.2基于梯度的二阶优化 2.3普通训练方法的局限 2.4误差反向传播算法的本质 2.5使用keras 第3章神经网络的优化难题 3.1局部极小值,鞍点和非凸优化 3.2随机梯度下降的优势 3.3梯度方向优化 3.4动态调整学习率 3.5使用keras 第4章神经网络的过拟合 4.1参数绑定和提前终止 4.2数据增强和噪声添加 4.3Dropout 4.4使用keras 第5章神经网络的神经单元 5.1梯度消失和梯度爆炸 5.2隐藏单元设计原则和sigmoid的非零中心 5.3基于线性函数的改进和maxout单元 5.4使用keras 第6章神经网络的深度训练 6.1预处理和批标准化 6.2批标准化的不同视角: 协变量偏差和协调更新 6.3自归一化神经网络 6.4ResNet 6.5使用keras 第7章卷积神经网络 7.1局部连接和权重共享 7.2卷积操作的重要概念 7.3卷积核的参数学习 7.4基于感受野的三个卷积技巧 7.5使用keras 第8章循环神经网络 8.1理解循环结构 8.2循环结构的参数学习 8.3正交初始化和记忆容量 8.4理解LSTM 8.5使用keras 第9章无监督表示学习: 自编码器 9.1自编码器 9.2稀疏自编码器 9.3收缩自编码器 9.4使用keras 第10章概率生成模型 10.1变分自编码器 10.2生成对抗网络 10.3使用keras 参考文献

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网