您好,欢迎来到聚文网。
登录
免费注册
网站首页
|
搜索
热搜:
磁力片
|
漫画
|
购物车
0
我的订单
商品分类
首页
幼儿
文学
社科
教辅
生活
销量榜
百面大模型
出版社: 人民邮电
作者: 包梦蛟 刘如日 朱俊达
商品条码: 9787115662217
适读年龄: 12+
版次: 1
开本: 16开
出版年份: 2025
印次: 1
定价:
¥109.8
销售价:
登录后查看价格
¥{{selectedSku?.salePrice}}
库存:
{{selectedSku?.stock}}
库存充足
{{item.title}}:
{{its.name}}
加入购物车
立即购买
加入书单
收藏
精选
¥5.83
世界图书名著昆虫记绿野仙踪木偶奇遇记儿童书籍彩图注音版
¥5.39
正版世界名著文学小说名家名译中学生课外阅读书籍图书批发 70册
¥8.58
简笔画10000例加厚版2-6岁幼儿童涂色本涂鸦本绘画本填色书正版
¥5.83
世界文学名著全49册中小学生青少年课外书籍文学小说批发正版
¥4.95
全优冲刺100分测试卷一二三四五六年级上下册语文数学英语模拟卷
¥8.69
父与子彩图注音完整版小学生图书批发儿童课外阅读书籍正版1册
¥24.2
好玩的洞洞拉拉书0-3岁宝宝早教益智游戏书机关立体翻翻书4册
¥7.15
幼儿认字识字大王3000字幼儿园中班大班学前班宝宝早教启蒙书
¥11.55
用思维导图读懂儿童心理学培养情绪管理与性格培养故事指导书
¥19.8
少年读漫画鬼谷子全6册在漫画中学国学小学生课外阅读书籍正版
¥64
科学真好玩
¥12.7
一年级下4册·读读童谣和儿歌
¥38.4
原生态新生代(传统木版年画的当代传承国际研讨会论文集)
¥11.14
法国经典中篇小说
¥11.32
上海的狐步舞--穆时英(中国现代文学馆馆藏初版本经典)
¥21.56
猫的摇篮(精)
¥30.72
幼儿园特色课程实施方案/幼儿园生命成长启蒙教育课程丛书
¥24.94
旧时风物(精)
¥12.04
三希堂三帖/墨林珍赏
¥6.88
寒山子庞居士诗帖/墨林珍赏
¥6.88
苕溪帖/墨林珍赏
¥6.88
楷书王维诗卷/墨林珍赏
¥9.46
兰亭序/墨林珍赏
¥7.74
祭侄文稿/墨林珍赏
¥7.74
蜀素帖/墨林珍赏
¥12.04
真草千字文/墨林珍赏
¥114.4
进宴仪轨(精)/中国古代舞乐域外图书
¥24.94
舞蹈音乐的基础理论与应用
内容简介
本书收录了约百道大模型工程师常见的面试题目和解答,系统、全面地介绍了与大模型相关的技术,涵盖语义表达、数据预处理、预训练、对齐、垂类微调、组件、评估、架构、检索增强生成(RAG)、智能体、PEFT(参数高效微调),以及训练与推理等内容。书中通过丰富的实例、图表及代码讲解,将复杂概念阐释得通俗易懂,是大模型领域的一本不可多得的实用指南。本书适合对大模型和Transformer等技术感兴趣的学生、研究者和工程师阅读和参考。
作者简介
包梦蛟,北京航空航天大学硕士,美团北斗计划高级算法专家,负责大众点评大模型应用落地开发,曾获得Kaggle Grandmaster称号、KDD CUP 2024冠军,业余时间撰写知乎专栏和公众号“包包算法笔记”,全网关注数5万+。 刘如日,北京航空航天大学硕士,研究兴趣为机器学习与自然语言处理。曾以第一作者身份发表顶会论文并多次在顶会竞赛中取得冠军等优异成绩。现于美团从事大模型相关技术研究与产业应用。 朱俊达,北京航空航天大学硕士,研究兴趣为大模型架构优化方向,有多家大厂实习经历,发表了多篇大模型相关论文。
目录
第 1章 语义表达 1 1.1 词向量与语义信息 1 1.1.1 稀疏词向量 2 1.1.2 分布式语义假设 2 1.1.3 稠密词向量 3 1.2 溢出词表词的处理方法 6 1.3 分词方法的区别与影响 11 1.3.1 词(word) 11 1.3.2 子词(subword) 12 1.3.3 字符(char) 16 1.4 词向量与语义相似度 17 1.5 构建句子向量 19 1.6 预训练的位置编码 22 1.7 BERT的不同嵌入类型 25 1.8 大模型语义建模的典型架构 27 第 2章 大模型的数据 31 2.1 大模型训练开源数据集 31 2.2 大模型不同训练环节与数据量 35 2.3 大模型数据预处理 39 2.3.1 数据的质量 39 2.3.2 数据的多样性 40 2.4 大模型扩展法则 43 2.5 持续预训练与灾难性遗忘 47 2.6 大模型指令微调的数据筛选 49 第3章 大模型的预训练 53 3.1 预训练与监督微调辨析 53 3.2 大模型的涌现能力 56 3.3 大模型预训练阶段的实验提效方法 58 3.4 大模型开发流程三阶段:预训练、监督微调和强化学习 61 3.4.1 大模型预训练 61 3.4.2 大模型的监督微调 61 3.4.3 大模型的强化学习 62 3.5 大模型训练显存计算与优化 63 3.6 大模型训练通信开销计算 75 3.6.1 集合通信原语 76 3.6.2 数据并行的工作原理和通信开销计算 80 3.6.3 张量并行的工作原理和通信开销计算 81 3.6.4 流水线并行的工作原理和通信开销计算 84 3.6.5 使用ZeRO优化技术时的通信开销计算 85 第4章 大模型的对齐 87 4.1 对齐数据构造 87 4.2 PPO算法 88 4.3 奖励模型训练 96 4.4 PPO稳定训练的方法 99 4.4.1 设计合理的评估指标对PPO训练过程进行监控 100 4.4.2 对损失和梯度进行标准化和裁剪 101 4.4.3 改进损失函数 102 4.4.4 优化评论家模型和演员模型的初始化方式 102 4.5 DPO算法 103 4.6 DPO与PPO辨析 105 4.6.1 计算资源方面:DPO所需计算资源比PPO少 106 4.6.2 训练稳定性方面:DPO的训练稳定性高于PPO 106 4.6.3 效果方面:PPO的泛化能力优于DPO 106 4.7 其他偏好对齐方法综述 108 4.7.1 PPO类 108 4.7.2 DPO类 113 4.7.3 非强化学习类 117 4.7.4 数据类 119 4.8 对齐训练稳定性监测 119 4.8.1 监督微调阶段 119 4.8.2 强化学习对齐训练阶段 121 4.9 大模型后训练环节辨析 122 第5章 大模型的垂类微调 124 5.1 (垂类)监督微调 124 5.2 后训练的词表扩充 128 5.3 有效的长度外推方法 130 5.4 大模型微调的损失函数 140 5.4.1 Cross Entropy Loss(交叉熵损失) 140 5.4.2 z-loss 141 5.4.3 EMO loss 142 5.5 大模型知识注入方法 144 5.5.1 模型的继续预训练与监督微调 144 5.5.2 检索增强生成 145 第6章 大模型的组件 147 6.1 Transformer的架构 147 6.2 注意力分数计算细节 153 6.3 词元化算法的区别与特点 156 6.3.1 基于单词的词元化 157 6.3.2 基于字符的词元化 157 6.3.3 基于子词的词元化 158 6.4 RoPE 160 6.5 ALiBi 165 6.5.1 ALiBi的工作原理 166 6.5.2 ALiBi的外推能力实验 167 6.5.3 ALiBi的训练推理效率实验 168 6.5.4 ALiBi的代码实现 169 6.6 Sparse Attention 169 6.7 Linear Attention 173 6.8 多头注意力机制及其优化(MHA、MQA 和GQA) 175 6.8.1 多头注意力机制的代码实现 175 6.8.2 Transformer解码器在解码过程中的性能瓶颈 178 6.8.3 多查询注意力和分组查询注意力的工作原理 179 6.9 各种归一化方法 181 6.9.1 归一化方法的作用 181 6.9.2 BatchNorm的工作原理 182 6.9.3 LayerNorm的工作原理 183 6.9.4 RMSNorm的工作原理 184 6.10 归一化模块位置的影响——PostNorm和PreNorm 184 6.10.1 PostNorm和PreNorm的工作原理 185 6.10.2 PostNorm和PreNorm的差异 185 6.11 Dropout机制 187 6.11.1 Dropout的实现流程和原理 188 6.11.2 避免训练和推理时的期望偏移 188 6.11.3 避免训练和推理时的方差偏移 189 6.12 模型训练参数初始化方法概述 190 6.12.1 固定值初始化 191 6.12.2 预训练初始化 191 6.12.3 基于固定方差的初始化 191 6.12.4 基于方差缩放的初始化 191 第7章 大模型的评估 194 7.1 大模型的评测榜单与内容 194 7.2 大模型评测的原则 199 7.3 大模型的修复方法 200 7.3.1 badcase定义 201 7.3.2 badcase修复思路 201 7.3.3 实践解法 202 7.4 生成式模型的评测指标 203 7.5 大模型的自动化评估 209 7.6 大模型的对抗性测试 211 7.7 大模型的备案流程 212 第8章 大模型的架构 217 8.1 因果解码器架构成为主流的原因 217 8.2 大模型的集成融合方法 220 8.3 MoE 226 第9章 检索增强生成 233 9.1 RAG的组成与评估 233 9.2 RAG中的召回方法 237 9.3 RAG与重排 241 9.4 RAG的工程化问题 244 第 10章 大模型智能体 248 10.1 智能体的组成 248 10.2 智能体的规划能力 251 10.3 智能体的记忆模块 255 10.4 智能体的工具调用 257 10.5 XAgent框架 263 10.6 AutoGen框架 266 10.7 智能体框架实践 269 第 11章 大模型PEFT 273 11.1 LoRA 273 11.1.1 LoRA的设计思路 273 11.1.2 LoRA的具体实现流程 274 11.2 PEFT方法概述 279 11.3 PEFT与全参数微调 286 第 12章 大模型的训练与推理 288 12.1 大模型解码与采样方法综述 288 12.2 大模型生成参数及其含义 292 12.3 大模型训练与推理预填充阶段的加速方法——FlashAttention 297 12.4 大模型专家并行训练 317 12.5 大模型推理加速——PagedAttention 321 12.5.1 为什么对KV缓存的内存管理效率是影响推理系统吞吐量的关键因素 322 12.5.2 PagedAttention如何提高对KV缓存的内存管理效率 325 12.6 大模型量化的细节 327 12.7 大模型多维并行化训练策略 328 第 13章 DeepSeek 335 13.1 DeepSeek系列模型架构创新 335 13.1.1 大数量小尺寸的混合专家设计 337 13.1.2 MLA 343 13.1.3 多词元预测 351 13.2 DeepSeek-R1训练流程 353 参考文献 357
×
Close
添加到书单
加载中...
点此新建书单
×
Close
新建书单
标题:
简介:
蜀ICP备2024047804号
Copyright 版权所有 © jvwen.com 聚文网