您好,欢迎来到聚文网。 登录 免费注册
跟我一起学人工智能-全解深度学习:九大核心算法

跟我一起学人工智能-全解深度学习:九大核心算法

  • 字数: 422
  • 出版社: 清华大学
  • 作者: 编者:于浩文|
  • 商品条码: 9787302679103
  • 适读年龄: 12+
  • 版次: 1
  • 开本: 16开
  • 页数: 286
  • 出版年份: 2025
  • 印次: 1
定价:¥79 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
本书专注于介绍基于深 度学习的算法。从探索深度 学习的数学基础和理论架构 ,到九大经典的深度学习算 法,旨在为读者提供一个从 基础到高级的全方位指导。 截至2024年,书中介绍的9 个算法几乎涵盖了整个深度 学习领域的经典和前沿算法 。 本书在第1章和第2章介 绍了深度学习的基础:数学 基础与神经网络算法。从第 3章开始,书籍逐步引领读 者进入深度学习的核心领域 ,即一些基于神经网络的变 体算法:卷积神经网络、循 环神经网络、编码器-解码 器模型,以及目前火热的变 形金刚算法、生成对抗网络 和扩散模型。这些章节不仅 讲解了各个模型的基础理论 和关键技术,还详细介绍了 这些模型在自然语言处理、 计算机视觉等领域的应用案 例。书籍的后半部分聚焦于 图神经网络和强化学习这些 前沿算法,深入浅出地讲解 了它们的基础知识、算法变 体及经典模型等高级话题。 这些内容为读者理解和应用 深度学习技术提供了坚实的 理论基础。 本书适合对深度学习领 域感兴趣的本科生、研究生 及相关行业的从业者阅读。
作者简介
于浩文,南安普顿大学人工智能专业硕士一等学位,曼彻斯特大学生物信息与系统生物硕士一等学位;湖南点头教育科技有限公司联合创始人。在SCI上发表论文三篇,IEEE上发表论文一篇,获国家技术专利一项。
目录
配套资源 第1章 深度学习数学基础 1.1 高等数学之微积分 1.1.1 重识微分 1.1.2 微分的解读 1.1.3 微分与函数的单调性和凹凸性 1.1.4 微分的链式法则 1.1.5 偏微分与全微分 1.1.6 梯度与方向导数 1.1.7 泰勒公式与麦克劳林公式 1.1.8 拉格朗日乘子法 1.1.9 重识积分 1.1.10 不定积分和反导数 1.1.11 定积分与牛顿-莱布尼茨公式 1.1.12 微积分的基本定理 1.2 线性代数 1.2.1 线性方程组 1.2.2 线性方程组的矩阵求解法 1.2.3 矩阵乘法 1.2.4 向量的数乘 1.2.5 向量的加法 1.2.6 向量的线性组合 1.2.7 向量空间 1.2.8 向量的线性相关和线性无关 1.2.9 向量乘法 1.2.10 向量的正交 1.2.11 向量与矩阵 1.2.12 特征值和特征向量 1.3 概率论 1.3.1 频数 1.3.2 数据位置 1.3.3 数据散布 1.3.4 随机变量的类型和概率分布 1.3.5 理论概率分布之常见的离散型分布 1.3.6 理论概率分布之常见的连续型分布 1.3.7 经验概率分布 1.4 统计学 1.4.1 大数定律与中心极限定理 1.4.2 参数估计 1.4.3 统计量和抽样分布 1.4.4 假设检验 1.4.5 相关性分析 第2章 神经网络理论基础 2.1 线性模型 2.1.1 线性模型的定义 2.1.2 损失函数 2.1.3 梯度下降算法 2.1.4 广义线性模型 2.2 回归与分类 2.2.1 回归和分类问题的定义与联系 2.2.2 线性模型解决回归和分类问题 2.3 感知机模型 2.3.1 感知机模型定义与理解 2.3.2 神经网络算法与深度学习模型 2.3.3 反向传播算法 2.4 激活函数 2.4.1 激活函数的定义与作用 2.4.2 常用激活函数 2.5 维度诅咒 2.5.1 神经网络的层级结构 2.5.2 维度诅咒与过拟合 2.6 过拟合与欠拟合 2.6.1 过拟合和欠拟合现象的定义 2.6.2 过拟合和欠拟合现象的产生原因 2.7 正则 2.7.1 L1和L2正则 2.7.2 DropOut 2.8 数据增强 2.9 数值不稳定性 第3章 卷积神经网络 3.1 卷积神经网络基础 3.1.1 卷积神经网络的计算 3.1.2 卷积的设计思想 3.1.3 卷积进行特征提取的过程 3.1.4 池化与采样 3.1.5 卷积神经网络的感受野 3.1.6 卷积模型实现图像识别 3.1.7 第1个卷积神经网络模型:LeNet 3.2 卷积的变体算法 3.2.1 逐通道卷积 3.2.2 逐点卷积 3.2.3 深度可分离卷积 3.2.4 组卷积 3.2.5 空间可分离卷积 3.2.6 空洞卷积 3.2.7 转置卷积 3.2.8 稀疏卷积 3.2.9 多维卷积 第4章 循环神经网络 4.1 循环神经网络基础 4.1.1 序列数据 4.1.2 RNN模型 4.1.3 语言模型 4.1.4 文本预处理 4.1.5 建模和预测 4.2 循环神经网络的变体模型 4.2.1 门控循环单元 4.2.2 长短期记忆网络 4.2.3 深度循环神经网络 4.2.4 双向循环神经网络 4.2.5 基于注意力的循环神经网络 第5章 编码器-解码器模型 5.1 编码器-解码器模型基础 5.1.1 编码器-解码器模型的基本结构 5.1.2 编码器-解码器模型在自然语音处理领域的应用 5.1.3 编码器-解码器模型在计算机视觉领域的应用 5.1.4 自编码器模型 5.2 CV中的编码器-解码器:VAE模型 5.2.1 VAE模型简明指导 5.2.2 潜空间 5.2.3 最大似然估计 5.2.4 隐变量模型 5.2.5 蒙特卡洛采样 5.2.6 变分推断 5.3 NLP中的编码器-解码器:Seq2Seq模型 5.3.1 Seq2Seq编码器 5.3.2 Seq2Seq解码器 5.3.3 Seq2Seq的Attention机制 5.3.4 Seq2Seq的Teacher Forcing策略 5.3.5 Seq2Seq评价指标BLEU 5.3.6 Seq2Seq模型小结 第6章 变形金刚算法 6.1 算法基础 6.1.1 算法概况 6.1.2 自注意力层 6.1.3 多头自注意力层 6.1.4 编码器结构 6.1.5 解码器结构 6.1.6 线性顶层和Softmax层 6.1.7 输入数据的向量化 6.2 NLP中的Transformer模型 6.2.1 BERT 6.2.2 GPT 6.3 CV中的Transformer模型 6.3.1 Vision Transformer 6.3.2 Swin Transformer 6.4 Transformer小结 第7章 生成对抗网络 7.1 生成对抗网络基础 7.1.1 GAN的模型结构 7.1.2 GAN模型的训练 7.2 改进的GAN 7.2.1 模式崩溃 7.2.2 模式崩溃的解决方法 7.3 f-GAN 7.3.1 GAN模型损失与散度 7.3.2 GAN损失的通用框架f散度 7.4 WGAN 7.4.1 传统的GAN模型梯度消失的分析 7.4.2 Wasserstein距离 7.4.3 由Wasser

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网