您好,欢迎来到聚文网。
登录
免费注册
网站首页
|
搜索
热搜:
磁力片
|
购物车
0
我的订单
商品分类
首页
幼儿
文学
社科
教辅
生活
销量榜
GPT图解 大模型是怎样构建的
字数: 341
出版社: 人民邮电
作者: 黄佳
商品条码: 9787115623683
版次: 1
页数: 254
出版年份: 2023
印次: 1
定价:
¥79.8
销售价:
登录后查看价格
¥{{selectedSku?.salePrice}}
库存:
{{selectedSku?.stock}}
库存充足
{{item.title}}:
{{its.name}}
加入购物车
立即购买
加入书单
收藏
精选
¥5.83
世界图书名著昆虫记绿野仙踪木偶奇遇记儿童书籍彩图注音版
¥5.39
正版世界名著文学小说名家名译中学生课外阅读书籍图书批发 70册
¥8.58
简笔画10000例加厚版2-6岁幼儿童涂色本涂鸦本绘画本填色书正版
¥5.83
世界文学名著全49册中小学生青少年课外书籍文学小说批发正版
¥4.95
全优冲刺100分测试卷一二三四五六年级上下册语文数学英语模拟卷
¥8.69
父与子彩图注音完整版小学生图书批发儿童课外阅读书籍正版1册
¥24.2
好玩的洞洞拉拉书0-3岁宝宝早教益智游戏书机关立体翻翻书4册
¥7.15
幼儿认字识字大王3000字幼儿园中班大班学前班宝宝早教启蒙书
¥11.55
用思维导图读懂儿童心理学培养情绪管理与性格培养故事指导书
¥19.8
少年读漫画鬼谷子全6册在漫画中学国学小学生课外阅读书籍正版
¥64
科学真好玩
¥12.7
一年级下4册·读读童谣和儿歌
¥38.4
原生态新生代(传统木版年画的当代传承国际研讨会论文集)
¥11.14
法国经典中篇小说
¥11.32
上海的狐步舞--穆时英(中国现代文学馆馆藏初版本经典)
¥21.56
猫的摇篮(精)
¥30.72
幼儿园特色课程实施方案/幼儿园生命成长启蒙教育课程丛书
¥24.94
旧时风物(精)
¥12.04
三希堂三帖/墨林珍赏
¥6.88
寒山子庞居士诗帖/墨林珍赏
¥6.88
苕溪帖/墨林珍赏
¥6.88
楷书王维诗卷/墨林珍赏
¥9.46
兰亭序/墨林珍赏
¥7.74
祭侄文稿/墨林珍赏
¥7.74
蜀素帖/墨林珍赏
¥12.04
真草千字文/墨林珍赏
¥114.4
进宴仪轨(精)/中国古代舞乐域外图书
¥24.94
舞蹈音乐的基础理论与应用
内容简介
人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2S),注意力机制,Transformer,从初代GPT到ChatGPT再到GPT-4等一系列突破性技术的诞生与演进。 本书将以生动活泼的笔触,将枯燥的技术细节化作轻松幽默的故事和缤纷多彩的图画,引领读者穿梭于不同技术的时空,见证自然语言处理技术的传承、演进与蜕变。在这场不断攀登技术新峰的奇妙之旅中,读者不仅能深入理解自然语言处理技术的核心原理,还能自己动手,从零开始搭建起一个又一个语言模型。 无论你是在校学生还是人工智能从业者,这本书都将成为一盏明灯,照亮你探索人工智能无限奥秘的道路。
作者简介
黄佳,笔名咖哥,新加坡科技研究局人工智能研究员。主攻方向为 NLP 大模型的研发与应用、持续学习、AI in FinTech。黄佳深耕人工智能领域多年,积累了丰富的科研项目和政府、银行、能源、医疗等领域 AI 项目落地实战经验,目前正与 PlatoX.AI 展开富有前景的技术合作。曾著有《零基础学机器学习》《数据分析咖哥十话》等多部热销书。同时,在极客时间开设专栏《零基础实战机器学习》《LangChain 实战课》,在深蓝学院开设视频课程“生成式预训练语言模型:理论与实战”。
目录
目 录 序章 看似寻常最奇崛,成如容易却艰辛 001 GPT-4:点亮人工通用智能的火花 002 人工智能演进之路:神经网络两落三起 004 现代自然语言处理:从规则到统计 007 何为语言?信息又如何传播? 008 NLP是人类和计算机沟通的桥梁 009 NLP技术的演进史 010 大规模预训练语言模型:BERT与GPT争锋 012 语言模型的诞生和进化 012 统计语言模型的发展历程 014 基于Transformer架构的预训练模型 016 “预训练+微调大模型”的模式 018 以提示/指令模式直接使用大模型 019 从初代GPT到ChatGPT,再到GPT-4 021 GPT作为生成式模型的天然优势 022 ChatGPT背后的推手——OpenAI 023 从初代GPT到ChatGPT,再到GPT-4的进化史 024 第 1课 高楼万丈平地起:语言模型的雏形N-Gram和简单文本表示Bag-of-Words 026 1.1 N-Gram模型 026 1.2 “词”是什么,如何“分词” 030 1.3 创建一个Bigram字符预测模型 032 1.4 词袋模型 036 1.5 用词袋模型计算文本相似度 037 小结 042 思考 043 第 2课 问君文本何所似: 词的向量表示Word2Vec和Embedding 044 2.1 词向量 ≈ 词嵌入 045 2.2 Word2Vec:CBOW模型和Skip-Gram模型 047 2.3 Skip-Gram模型的代码实现 050 2.4 CBOW模型的代码实现 061 2.5 通过nn.Embedding来实现词嵌入 063 小结 067 思考 068 第3课 山重水复疑无路:神经概率语言模型和循环神经网络 069 3.1 NPLM的起源 070 3.2 NPLM的实现 072 3.3 循环神经网络的结构 079 3.4 循环神经网络实战 082 小结 086 思考 087 第4课 柳暗花明又一村:Seq2Seq编码器-解码器架构 088 4.1 Seq2Seq架构 089 4.2 构建简单Seq2Seq架构 092 小结 103 思考 103 第5课 见微知著开慧眼:引入注意力机制 104 5.1 点积注意力 105 5.2 缩放点积注意力 114 5.3 编码器-解码器注意力 116 5.4 注意力机制中的Q、K、V 122 5.5 自注意力 125 5.6 多头自注意力 126 5.7 注意力掩码 129 5.8 其他类型的注意力 131 小结 132 思考 132 第6课 层峦叠翠上青天:搭建GPT核心组件Transformer 133 6.1 Transformer架构剖析 133 6.1.1 编码器-解码器架构 135 6.1.2 各种注意力的应用 135 6.1.3 编码器的输入和位置编码 140 6.1.4 编码器的内部结构 141 6.1.5 编码器的输出和编码器-解码器的连接 142 6.1.6 解码器的输入和位置编码 143 6.1.7 解码器的内部结构 145 6.1.8 解码器的输出和Transformer的输出头 146 6.2 Transformer代码实现 148 6.3 完成翻译任务 176 6.3.1 数据准备 177 6.3.2 训练Transformer模型 179 6.3.3 测试Transformer模型 179 小结 181 思考 182 第7课 芳林新叶催陈叶:训练出你的简版生成式GPT 183 7.1 BERT与GPT争锋 184 7.2 GPT:生成式自回归模型 188 7.3 构建GPT模型并完成文本生成任务 191 7.3.1 搭建GPT模型(解码器) 192 7.3.2 构建文本生成任务的数据集 195 7.3.3 训练过程中的自回归 198 7.3.4 文本生成中的自回归(贪婪搜索) 200 7.4 使用WikiText2数据集训练Wiki-GPT模型 201 7.4.1 用WikiText2构建Dataset和DataLoader 202 7.4.2 用DataLoader提供的数据进行训练 206 7.4.3 用Evaluation Dataset评估训练过程 207 7.4.4 文本生成中的自回归(集束搜索) 209 小结 212 思考 213 第8课 流水后波推前波:ChatGPT基于人类反馈的强化学习 214 8.1 从GPT到ChatGPT 215 8.2 在Wiki-GPT基础上训练自己的简版ChatGPT 218 8.3 用Hugging Face预训练GPT微调ChatGPT 225 8.4 ChatGPT的RLHF实战 233 8.4.1 强化学习基础知识 235 8.4.2 简单RLHF实战 237 小结 243 思考 244 第9课 生生不息的循环:使用强大的GPT-4 API 245 9.1 强大的OpenAI API 245 9.2 使用GPT-4 API 249 小结 251 思考 252 后 记 莫等闲,白了少年头 253
×
Close
添加到书单
加载中...
点此新建书单
×
Close
新建书单
标题:
简介:
蜀ICP备2024047804号
Copyright 版权所有 © jvwen.com 聚文网