您好,欢迎来到聚文网。 登录 免费注册
DeepSeek大模型高性能核心技术与多模态融合开发

DeepSeek大模型高性能核心技术与多模态融合开发

  • 字数: 607
  • 出版社: 清华大学
  • 作者: 王晓华|
  • 商品条码: 9787302684893
  • 适读年龄: 12+
  • 版次: 1
  • 开本: 16开
  • 页数: 346
  • 出版年份: 2025
  • 印次: 1
定价:¥119 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
\\\"《DeepSeek大模型高性能核心技术与多模态融合开发》深入剖析国产之光DeepSeek多模态大模型的核心技术,从高性能注意力机制切入,深入揭示DeepSeek的技术精髓与独特优势,详细阐述其在人工智能领域成功的技术秘诀。《DeepSeek大模型高性能核心技术与多模态融合开发》循序渐进地讲解深度学习注意力机制的演进,从经典的多头注意力(MHA)逐步深入DeepSeek的核心技术—多头潜在注意力(MLA)与混合专家模型(MoE)。此外,《DeepSeek大模型高性能核心技术与多模态融合开发》还将详细探讨DeepSeek中的多模态融合策略、技术及应用实例,为读者提供全面的理论指导与应用实践。《DeepSeek大模型高性能核心技术与多模态融合开发》配套所有示例源码、PPT课件、配图PDF文件与读者微信技术交流群。 《DeepSeek大模型高性能核心技术与多模态融合开发》共分15章,内容涵盖高性能注意力与多模态融合概述、PyTorch深度学习环境搭建、DeepSeek注意力机制详解(包括基础篇、进阶篇、高级篇及调优篇)、在线与本地部署的DeepSeek实战(如旅游特种兵迪士尼大作战、广告文案撰写与微调、智能客服等),以及多模态融合技术与实战应用(如Diffusion可控图像生成、多模态图文理解与问答、交叉注意力语音转换、端到端视频分类等)。 《DeepSeek大模型高性能核心技术与多模态融合开发》既适合DeepSeek核心技术初学者、注意力机制初学者、大模型应用开发人员、多模态融合开发人员、大模型研究人员,也适合高等院校及高职高专院校人工智能大模型方向的师生。\\\"
作者简介
王晓华,高校计算机专业讲师,研究方向为云计算、大数据与人工智能。其著作包括《深入探索Mamba模型架构与应用》《PyTorch深度学习与计算机视觉实践》《PyTorch语音识别实战》《ChatGLM3大模型本地化部署、应用开发与微调》《从零开始大模型开发与微调:基于PyTorch与ChatGLM》《PyTorch 2.0深度学习从零开始学》《Spark 3.0大数据分析与挖掘:基于机器学习》《TensorFlow深度学习应用实践》《OpenCV+TensorFlow深度学习与计算机视觉实战》《TensorFlow语音识别实战》《TensorFlow 2.0卷积神经网络实战》《深度学习的数学原理与实现》。
目录
目 录 第1章 高性能注意力与多模态融合 1 1.1 从涌现到飞跃:高性能大模型的崛起 1 1.1.1 大模型的“涌现” 2 1.1.2 大模型的发展历程 3 1.1.3 高性能大模型的崛起 4 1.2 大模型的内功:高性能注意力机制的崛起 5 1.2.1 注意力机制的基本原理 5 1.2.2 注意力机制的变革与发展 6 1.2.3 高性能注意力机制崛起:GQA与MLA 6 1.3 大模型的外拓:多模态融合 7 1.3.1 多模态外拓及其挑战 7 1.3.2 融合策略与技术概览 7 1.3.3 深度学习在多模态融合中的应用场景 9 1.4 高性能注意力与多模态融合的未来展望 10 1.4.1 融合技术的创新方向 11 1.4.2 注意力机制的前沿探索 11 1.5 本章小结 12 第2章 PyTorch深度学习环境搭建 13 2.1 安装Python开发环境 13 2.1.1 Miniconda的下载与安装 13 2.1.2 PyCharm的下载与安装 16 2.1.3 计算softmax函数练习 20 2.2 安装PyTorch 2.0 21 2.2.1 NVIDIA 10/20/30/40系列显卡选择的GPU版本 21 2.2.2 PyTorch 2.0 GPU NVIDIA运行库的安装 21 2.2.3 Hello PyTorch 24 2.3 多模态大模型DeepSeek初探与使用 24 2.3.1 DeepSeek模型简介 25 2.3.2 DeepSeek带来的技术创新 26 2.3.3 DeepSeek的第三方服务与使用示例 27 2.4 本章小结 29 第3章 注意力机制详解之基础篇 30 3.1 注意力机制与模型详解 30 3.1.1 注意力机制详解 31 3.1.2 自注意力(Self-Attention)机制 32 3.1.3 自注意力的代码实现 37 3.1.4 ticks和Layer Normalization 38 3.1.5 多头自注意力 39 3.2 注意力机制的应用实践:编码器 42 3.2.1 自编码器的总体架构 42 3.2.2 回到输入层:初始词向量层和位置编码器层 43 3.2.3 前馈层的实现 46 3.2.4 将多层模块融合的TransformerBlock层 47 3.2.5 编码器的实现 48 3.3 基础篇实战:自编码架构的拼音汉字生成模型 53 3.3.1 汉字拼音数据集处理 54 3.3.2 搭建文本与向量的桥梁—Embedding 56 3.3.3 自编码模型的确定 58 3.3.4 模型训练部分的编写 59 3.4 本章小结 60 第4章 注意力机制详解之进阶篇 62 4.1 注意力机制的第二种形态:自回归架构 62 4.1.1 自回归架构重大突破:旋转位置编码 63 4.1.2 添加旋转位置编码的注意力机制与现有库包的实现 64 4.1.3 新型的激活函数SwiGLU详解 66 4.1.4 “因果掩码”与“错位”输入输出格式详解 67 4.2 进阶篇实战1:无须位置表示的酒店评论情感判断 69 4.2.1 数据集的准备与读取 69 4.2.2 使用sentencepiece建立文本词汇表 70 4.2.3 编码情感分类数据集 71 4.2.4 基于新架构文本分类模型设计 72 4.2.5 情感分类模型的训练与验证 75 4.3 进阶篇实战2:基于自回归模型的酒店评论生成 77 4.3.1 数据集的准备与读取 77 4.3.2 基于自回归文本生成模型的设计 78 4.3.3 评论生成模型的训练 82 4.3.4 使用训练好的模型生成评论 83 4.4 本章小结 83 第5章 注意力机制详解之高级篇 85 5.1 替代前馈层的混合专家模型详解 86 5.1.1 混合专家模型的基本结构 86 5.1.2 混合专家模型中的“专家”与“调控”代码实现 87 5.2 高级篇实战1:基于混合专家模型的情感分类实战 91 5.2.1 基于混合专家模型的MoE评论情感分类实战 91 5.2.2 混合专家模型中负载平衡的实现 94 5.2.3 修正后的MoE门控函数 96 5.3 带有MoE的注意力模型 97 5.3.1 注意力机制中的前馈层不足 98 5.3.2 MoE天然可作为前馈层 101 5.3.3 结合MoE的注意力机制 104 5.4 高级篇实战2:基于通道注意力的图像分类 105 5.4.1 数据集的准备 105 5.4.2 图像识别模型的设计 107 5.4.3 结合通道注意力图像分类模型 108 5.4.4 图像识别模型SENet的训练与验证 110 5.5 高级篇实战3:基于MoE与自注意力的图像分类 111 5.5.1 基于注意力机制的ViT模型 112 5.5.2 Patch和Position Embedding 114 5.5.3 可视化的V-MoE详解 116 5.5.4 V-MoE模型的实现 118 5.5.5 基于图像识别模型V-MoE的训练与验证 119 5.5.6 使用已有的库包实现MoE 121 5.6 本章小结 122 第6章 注意力机制详解之调优篇 124 6.1 注意力模型优化方案讲解 124 6.1.1 注意力模型优化1:MQA模型 125 6.1.2 注意力模型优化2:MLA模型 127 6.1.3 注意力模型优化3:GQA模型 129 6.1.4 注意力模型优化4:差分注意力模型 134 6.2 调优篇实战1:基于MLA的人类语音情感分类 140 6.2.1 情绪数据的获取与标签的说明 140 6.2.2 情绪数据集的读取 141 6.2.3 语音情感分类模型的设计和训练 143 6.3 本章小结 144 第7章 旅游特种兵迪士尼大作战:DeepSeek API调用与高精准路径优化 146 7.1 基于在线API的大模型调用 147 7.1.1 DeepSeek的注册与API获取 147 7.1.2 带有特定格式的DeepSeek的API调用 149 7.1.3 带有约束的DeepSeek的API调用 150 7.2 智能化DeepSeek工具调用详解 153 7.2.1 Python使用工具的基本原理 154 7.2.2 在DeepSeek中智能地使用工具 154 7.2.3 在DeepSeek中选择性地使用工具 157 7.2.4 DeepSeek工具调用判定依据 165 7.3 旅游特种兵迪士尼大作战:DeepSeek高精准路径优化 170 7.3.1 游乐场数据的准备 170 7.3.2 普通大模型的迪士尼游玩求解攻略 173 7.3.3 基于动态规划算法的迪士尼游玩求解攻略 174 7.3.4 基于DeepSeek的旅游特种兵迪士尼大作战 176 7.4 本章小结 178 第8章 广告文案撰写实战:多模态DeepSeek本地化部署与微调 179 8.1 多模态DeepSeek-VL2本地化部署与使用 180 8.1.1 Linux版本DeepSeek-VL2代码下载与图像问答 180 8.1.2 Windows版本DeepSeek-VL2代码下载 182 8.2 广告文案撰写实战1:PEFT与LoRA详解 183 8.2.1 微调的目的:让生成的结果更聚焦于任务目标 183 8.2.2 微调经典方法LoRA详解 185 8.2.3 适配DeepSeek微调的辅助库PEFT详解 187 8.3 广告文案撰写实战2:本地化DeepSeek-VL2微调 190 8.3.1 数据的准备 190 8.3.2 微调模型的训练 192 8.3.3 微调模型的使用与推断 194 8.4 本章小结 196 第9章 注意力与特征融合范式1:Diffusion可控图像生成 197 9.1 Diffusion生成模型精讲 197 9.1.1 Diffusion Model的精讲 198 9.1.2 直接运行的经典DDPM的模型训练实战 199 9.1.3 DDPM的模型基本模块说明 202 9.1.4 DDPM加噪与去噪详解:结合成功运行的扩散模型代码 205 9.1.5 DDPM的损失函数:结合成功运行的Diffusion Model代码 210 9.2 可控图像生成实战:融合特征的注意力机制 211 9.2.1 扩散模型可控生成的基础:特征融合 212 9.2.2 注意力MQA中的可控特征融合 212 9.2.3 基于注意力的扩散模型的设计 214 9.2.4 图像的加噪与模型训练 217 9.2.5 基于注意力模型的可控图像生成 220 9.3 本章小结 223 第10章 注意力与特征融合范式2:多模态图文理解与问答 224 10.1 多模态图文问答实战 224 10.1.1 一种新的多模态融合方案 225 10.1.2 数据集的设计与使用 228 10.1.3 多模态融合数据集的训练 229 10.1.4 多模态图文问答的预测 230 10.2 更多的多模态融合方案 231 10.2.1 一种截断的多模态融合方案 231 10.2.2 截断后多模态模型的训练与预测 234 10.2.3 一种加法基础的多模态融合方案 235 10.3 本章小结 237 第11章 注意力与特征融合范式3:交叉注意力语音转换 239 11.1 端到端语音识别任务简介 239 11.1.1 端到端的语音识别 240 11.1.2 中文语音文本数据集说明 241 11.2 端到端音频特征提取库librosa的使用 243 11.2.1 音频信号的基本读取方法 243 11.2.2 多特征音频抽取 246 11.3 端到端语识别任务简介 248 11.3.1 全中文音频数据集的准备 248 11.3.2 音频特征的提取与融合 250 11.3.3 基于生成模型的端到端语音识别任务 253 11.3.4 端到端语音识别任务的训练与预测 255 11.4 基于PyTorch的数据处理与音频特征融合 257 11.4.1 THCHS30数据集的处理 257 11.4.2 基于torchaudio的音频预处理 258 11.4.3 基于不同角度的音频特征获取和简单融合 260 11.4.4 关于特征融合的讲解 261 11.5 用于特征融合的交叉注意力 262 11.5.1 交叉注意力详解 262 11.5.2 带有掩码的交叉注意力 265 11.5.3 完整的带有掩码的交叉注意力端到端语音识别 267 11.5.4 基于交叉注意力的端到端语音识别的训练与预测 269 11.5.5 基于连接concat的端到端语音识别模型 269 11.6 本章小结 271 第12章 多模态特征token压缩 272 12.1 图像特征压缩的多种实现 272 12.1.1 Pixel-Shuffle的token压缩 272 12.1.2 Cross-layer Token Fusion压缩 274 12.1.3 AvgPool的token压缩 277 12.2 基于AvgPool与自编码器的语音识别 278 12.2.1 修改后的AvgPool函数 278 12.2.2 自编码器语音识别模型1:数据准备 279 12.2.3 自编码器语音识别模型2:模型设计 280 12.2.4 自编码器语音识别模型3:模型的训练与预测 281 12.3 本章小结 282 第13章 从二维到一维:图像编码器详解与图形重建实战 283 13.1 图像编码器 284 13.1.1 从自然语言处理讲起 284 13.1.2 图像的编码与解码VQ-VAE 285 13.1.3 为什么VQ-VAE采用离散向量 285 13.1.4 VQ-VAE的核心实现 287 13.2 基于VQ-VAE的手写体生成 289 13.2.1 图像的准备与超参数设置 289 13.2.2 VQ-VAE的编码器与解码器 291 13.2.3 VQ-VAE的模型设计 295 13.2.4 VQ-VAE的训练与预测 297 13.2.5 获取编码后的离散token 299 13.3 基于FSQ的人脸生成 300 13.3.1 FSQ算法简介与实现 301 13.3.2 人脸数据集的准备 303 13.3.3 基于FSQ的人脸重建方案 304 13.3.4 基于FSQ的人脸输出与离散token 306 13.4 基于FSQ算法的语音存储 307 13.4.1 无监督条件下的语音存储 307 13.4.2 可作为密码机的离散条件下的语音识别 308 13.5 本章小结 309 第14章 基于PyTorch的端到端视频分类实战 310 14.1 视频分类数据集的准备 310 14.1.1 HMDB51数据集的准备 311 14.1.2 视频抽帧的处理 312 14.1.3 基于PyTorch的数据输入 314 14.2 注意力视频分类实战 315 14.2.1 对于视频的Embedding编码器 316 14.2.2 视频分类模型的设计 317 14.2.3 视频分类模型的训练与验证 320 14.3 使用预训练模型的视频分类 321 14.3.1 torchvision简介 321 14.3.2 基于torchvision的端到端视频分类实战 324 14.4 本章小结 326 第15章 基于DeepSeek的跨平台智能客服开发实战 328 15.1 智能客服的设计与基本实现 328 15.1.1 智能客服搭建思路 329 15.1.2 商品介绍数据的格式与说明 329 15.1.3 基于DeepSeek的智能客服设计 334 15.2 带有跨平台客户端的智能客服开发实战 337 15.2.1 跨平台客户端Gradio使用详解 337 15.2.2 一个简单的Gradio示例 343 15.2.3 基于DeepSeek的跨平台智能客服实现 343 15.3 本章小结 346

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网