您好,欢迎来到聚文网。 登录 免费注册
ChatGPT的基本原理与核心算法

ChatGPT的基本原理与核心算法

  • 字数: 352
  • 出版社: 清华大学
  • 作者: 编者:邓志东|
  • 商品条码: 9787302682639
  • 适读年龄: 12+
  • 版次: 1
  • 开本: 16开
  • 页数: 219
  • 出版年份: 2025
  • 印次: 1
定价:¥69 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
能够模仿人类语言智能 与思维,具有世界一般性知 识的ChatGPT,开启了通用 人工智能的新时代,正成为 引爆第四次工业革命的火种 。本书是第一本体系化介绍 ChatGPT基本原理与核心算 法的教材及专业图书。全书 共分5章:第1章为人工神经 网络基础;第2章详细剖析 了Transformer及其缘起, 分析了视觉领域的 Transformer算法;第3章综 述了各种大型语言模型框架 ,分享了创建GPT系列模型 的思想之旅;第4章重点介 绍了ChatGPT的预训练方法 与微调算法,系统地阐述了 强化学习基础与基于人类反 馈的强化学习;第5章为 ChatGPT的应用,包括上下 文学习提示与思维链提示, 并讨论了智能涌现。本书体 系严谨、系统性强、逻辑严 密、内容丰富,不仅深入浅 出、图文并茂、特色鲜明, 而且具有引领性、前瞻性和 思想启迪性。 本书可作为高等院校人 工智能、智能科学与技术、 计算机科学与技术、大数据 、自动驾驶、新一代机器人 及相关专业高年级本科生与 研究生教材,也可供上述专 业的研究人员、算法工程师 及从事AI产品研发,产业发 展与决策咨询等的工程技术 人员、投资者、战略研究者 和广大科技工作者参考。
作者简介
邓志东,CAA会士,CCF杰出会员。清华大学计算机科学与技术系教授,博士生导师,清华大学人工智能研究院视觉智能研究中心主任。目前的主要研究方向为人工智能(深度神经网络与大模型、深度强化学习)、自动驾驶、人形机器人。发表学术论文300余篇。
目录
第1章 人工神经网络基础 1.1 引言 1.2 人工神经元模型 1.2.1 基准神经元模型:MP模型 1.2.2 第一代神经元模型:WSN模型 1.2.3 第二代神经元模型:RBF模型 1.2.4 第三代神经元模型:发放模型 1.3 人工神经网络模型 1.3.1 神经网络的基本概念与方法 1.3.2 前馈神经网络模型 1.3.3 深度卷积神经网络模型 1.3.4 反馈神经网络模型 1.3.5 递归神经网络模型 1.4 本章小结 第2章 从LSTM到Transformer 2.1 引言 2.2 递归神经网络:编码器-解码器框架 2.2.1 从前馈神经网络到递归神经网络 2.2.2 Elman网络:经典递归神经网络 2.2.3 长短期记忆网络 2.2.4 递归神经网络的编码器-解码器框架 2.3 递归神经网络的注意力与点积相似性 2.3.1 长短期记忆网络的注意力 2.3.2 点积相似性 2.4 Transformer模型 2.4.1 传统编码器-解码器框架下的Transformer网络结构 2.4.2 嵌入向量与位置编码 2.4.3 残差直连结构及前置归一化层 2.4.4 Transformer的核心结构单元:多头沣意力机制与逐位置前馈神经网络 2.4.5 学习机制:层堆叠自监督学习与基于误差反向传播的监督微调 2.4.6 Transformer的主要特性 2.4.7 与递归神经网络的联系与区别 2.5 应用领域:从NLP扩展到 2.5.1 CV领域的Transformer 2.5.2 视觉目标检测与分割任务:DETR 2.5.3 图像分类任务 2.5.4 三维点云处理任务:Point Transformer 2.5.5 对比式语言图像预训练模型:CLIP 2.5.6 其他视觉任务及展望 2.6 本章小结 第3章 GPT系列预训练大型语言模型 3.1 引言 3.2 大型语言模型的Transformer框架 3.2.1 前缀(编码器)解码器架构的Transformer框架 3.2.2 编码器架构的Transformer框架 3.2.3 解码器架构的Transformer框架 3.3 混合式预训练大型语言模型 3.3.1 T5模型 3.3.2 GLM模型 3.4 判别式预训练大型语言模型 3.4.1 BERT模型 3.4.2 RoBERTa模型 3.5 GPT系列生成式预训练大型语言模型 3.5.1 GPT-1:利用生成式预训练改善语言理解 3.5.2 GPT-2:无监督多任务学习的语言模型 3.5.3 GPT-3:少样本学习的大型语言模型 3.5.4 GPT-4:罔义多模态大型语言模型 3.6 本章小结 第4章 ChatGPT的大规模预训练与微调 4.1 引言 4.2 大型语言模型的大规模预训练 4.2.1 预训练任务与模型选择 4.2.2 大规模预训练方法 4.2.3 生成式Transformer大型语言模型的对比式自监督学习 4.3 ChatGPT预训练模型的微调 4.3.1 强化学习基础 4.3.2 预训练大型语言模型的指令调优与RLHF调优 4.3.3 初始动作器:SFT模型的监督训练 4.3.4 初始评判器:RM模型的监督训练 4.3.5 A2C框架下的PPO-ptx强化学习:策略更新与价值对齐 4.4 性能评估 4.4.1 与人类意图及价值观对齐的性能评估 4.4.2 定量评测 4.5 ChatGPT规模化与丁程化中的关键技术 4.5.1 大规模高质量数据资源的准备 4.5.2 大规模分布式预训练与微调所需的AI算力支撑 4.6 本章小结 第5章 ChatGPT的应用 5.1 引言 5.2 提示工程 5.2.1 预训练一提示微调范式 5.2.2 零样本提示与少样本提示 5.3 上下义学习提示 5.3.1 语言模型的元学习 5.3.2 上下义学习提示 5.4 思维链提示 5.4.1 思维链提示的两种方式 5.4.2 少样本思维链提示 5.4.3 零样本思维链提示 5.4.4 自动少样本思维链提示 5.5 思维树提示 5.5.1 思维树提示的基本思想 5.5.2 思维树:大型语言模型深思熟虑的问题求解方法 5.5.3 分析与讨论 5.6 智能涌现能力 5.6.1 智能涌现能力的定义 5.6.2 涌现能力发生的几种情形 5.6.3 涌现能力的分析与展望 5.7 本章小结

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网