您好,欢迎来到聚文网。
登录
免费注册
网站首页
|
搜索
热搜:
磁力片
|
漫画
|
购物车
0
我的订单
商品分类
首页
幼儿
文学
社科
教辅
生活
销量榜
预训练语言模型
字数: 240000
装帧: 平装
出版社: 电子工业出版社
作者: 邵浩
出版日期: 2021-05-01
商品条码: 9787121409998
版次: 1
开本: 16开
页数: 216
出版年份: 2021
定价:
¥109
销售价:
登录后查看价格
¥{{selectedSku?.salePrice}}
库存:
{{selectedSku?.stock}}
库存充足
{{item.title}}:
{{its.name}}
加入购物车
立即购买
加入书单
收藏
精选
¥5.83
世界图书名著昆虫记绿野仙踪木偶奇遇记儿童书籍彩图注音版
¥5.39
正版世界名著文学小说名家名译中学生课外阅读书籍图书批发 70册
¥8.58
简笔画10000例加厚版2-6岁幼儿童涂色本涂鸦本绘画本填色书正版
¥5.83
世界文学名著全49册中小学生青少年课外书籍文学小说批发正版
¥4.95
全优冲刺100分测试卷一二三四五六年级上下册语文数学英语模拟卷
¥8.69
父与子彩图注音完整版小学生图书批发儿童课外阅读书籍正版1册
¥24.2
好玩的洞洞拉拉书0-3岁宝宝早教益智游戏书机关立体翻翻书4册
¥7.15
幼儿认字识字大王3000字幼儿园中班大班学前班宝宝早教启蒙书
¥11.55
用思维导图读懂儿童心理学培养情绪管理与性格培养故事指导书
¥19.8
少年读漫画鬼谷子全6册在漫画中学国学小学生课外阅读书籍正版
¥64
科学真好玩
¥12.7
一年级下4册·读读童谣和儿歌
¥38.4
原生态新生代(传统木版年画的当代传承国际研讨会论文集)
¥11.14
法国经典中篇小说
¥11.32
上海的狐步舞--穆时英(中国现代文学馆馆藏初版本经典)
¥21.56
猫的摇篮(精)
¥30.72
幼儿园特色课程实施方案/幼儿园生命成长启蒙教育课程丛书
¥24.94
旧时风物(精)
¥12.04
三希堂三帖/墨林珍赏
¥6.88
寒山子庞居士诗帖/墨林珍赏
¥6.88
苕溪帖/墨林珍赏
¥6.88
楷书王维诗卷/墨林珍赏
¥9.46
兰亭序/墨林珍赏
¥7.74
祭侄文稿/墨林珍赏
¥7.74
蜀素帖/墨林珍赏
¥12.04
真草千字文/墨林珍赏
¥114.4
进宴仪轨(精)/中国古代舞乐域外图书
¥24.94
舞蹈音乐的基础理论与应用
编辑推荐
"√梳理预训练语言模型的发展历史、基本概念 √剖析具有代表性的预训练语言模型的实现细节,配代码 √预训练语言模型的评测、应用及趋势分析"
内容简介
预训练语言模型属于人工智能领域中自然语言处理领域的一个细分。 本书主要介绍预训练语言模型。预训练语言模型是自然语言处理领域的重要突破,得到了越来越广泛的关注,相关研究者和从业人员在实际应用的过程中,亟需一本理论翔实、代码细节充分的参考书。本书详细梳理了预训练语言模型的基本概念和理论基础,并通过实际代码的讲解, 阐述了具有代表性的预训练语言模型的实现细节,非常适合需要快速、全面掌握预训练语言模型的从业者阅读。
作者简介
"邵 浩 日本国立九州大学工学博士,现就职于vivo。曾任狗尾草智能科技AI研究院院长,带领团队打造了AI虚拟生命产品的交互引擎。曾是上海对外经贸大学副教授,硕士生导师。是上海市静安区首届优秀人才,上海市人才发展基金获得者,杭州市高层次人才。任中国中文信息学会青年工作委员会委员,语言与知识计算专委会委员,中国计算机学会语音对话与听觉专委会委员,自然语言处理专委会委员。发表论文50余篇,获专利10余项,主持多项重量及省部级课题,曾在联合国、世界贸易组织、亚利桑那州立大学、香港城市大学等机构任访问学者。 刘一烽 全国中学生物理竞赛保送生,清华大学电子系硕士,曾获学习成绩优异奖学金。现就职于阿里巴巴淘系技术部,曾任vivo人工智能研究院AI算法工程师,主要研究方向为强化学习、自然语言处理和视频内容理解。"
目录
第 1 章 预训练语言模型简介 1 1.1自然语言处理研究进展 1 1.2预训练语言模型:为什么要预训练 4 1.2.1预训练 4 1.2.2自然语言表示 5 1.2.3预训练语言模型发展史及分类 8 第 2 章 预训练语言模型基础知识 13 2.1统计语言模型 14 2.2神经网络语言模型 17 2.3词向量:解决相似单词的距离问题 19 2.4RNN 和 LSTM 基础 25 2.5基于 RNN 的语言模型 29 2.6ELMo:解决多义词的表示问题 32 第 3 章 Transformer 与 Attention 37 3.1Transformer 的结构 37 3.2Self-Attention:从全局中找到重点 43 3.3位置编码:为什么有效 54 3.4单向掩码:另一种掩码机制 58 3.5代码解读:模型训练技巧 61 3.5.1训练技巧 1:归一化层前置 62 3.5.2训练技巧 2:梯度累积 64 第 4 章 GPT 系列模型 69 4.1GPT 的结构:基于 Transformer Decoder 69 4.2GPT 任务改写:如何在不同任务中使用 GPT 71 4.3GPT 核心代码解读 74 4.4GPT-2:Zero-shot Learning 的潜力 79 4.4.1N-shot Learning 79 4.4.2核心思想 80 4.4.3模型结构 81 4.5GPT-3:Few-shot Learning 的优秀表现 82 4.5.1看词造句 84 4.5.2语法纠错 84 4.5.3GPT-3 的争议 85 第 5 章 BERT 模型 87 5.1BERT:公认的里程碑 87 5.2BERT 的结构:强大的特征提取能力 88 5.3无监督训练:掩码语言模型和下句预测 91 5.3.1MLM 91 5.3.2NSP 93 5.3.3输入表示 94 5.4微调训练:适应下游任务 95 5.4.1句对分类 95 5.4.2单句分类 96 5.4.3文本问答 97 5.4.4单句标注 99 5.5核心代码解读:预训练和微调 100 5.5.1BERT 预训练模型 101 5.5.2BERT 微调模型 110 5.6BERT 总结 117 第 6 章 后 BERT 时代的模型 119 6.1XLM:跨语言模型 119 6.1.1优化方向 119 6.1.2算法细节 120 6.1.3 小结 121 6.2MT-DNN:多任务融合 121 6.2.1优化方向 121 6.2.2算法细节 122 6.2.3 小结 124 6.3UniLM:获得文本生成能力 124 6.3.1优化方向 124 6.3.2算法细节 125 6.3.3 小结 127 6.4SpanBERT:扩大掩码范围 127 6.4.1优化方向 127 6.4.2算法细节 128 6.4.3 小结 129 6.5XLNet:置换自回归 130 6.5.1优化方向 130 6.5.2算法细节 130 6.5.3 小结 135 6.6ERNIE:知识图谱 136 6.6.1优化方向 136 6.6.2算法细节 136 6.6.3 小结 139 6.7VideoBERT:多模态融合 139 6.7.1优化方向 139 6.7.2算法细节 140 6.7.3 小结 141 6.8ALBERT:参数共享 142 6.8.1优化方向 142 6.8.2算法细节 143 6.8.3 小结 145 6.9RoBERTa:更大的模型 145 6.9.1优化方向 145 6.9.2算法细节 146 6.9.3 小结 146 6.10BART:编解码结构 146 6.10.1优化方向 146 6.10.2算法细节 147 6.10.3 小结 149 6.11T5:大一统模型 149 6.11.1优化方向 149 6.11.2算法细节 150 6.11.3 小结 153 6.12 总结 154 第 7 章 评测和应用 157 7.1评测任务 157 7.1.1通用评测任务 157 7.1.2领域评测任务 162 7.1.3其他评测任务 167 7.2模型应用:Transformers 代码实战 168 7.2.1 安装 168 7.2.2快速上手指南 170 7.2.3微调训练 172 7.2.4BERT 应用 175 7.3模型压缩:量化、剪枝和蒸馏 179 7.3.1BERT 模型分析 179 7.3.2 量化 181 7.3.3 剪枝 181 7.3.4 蒸馏 182 7.3.5 结构无损压缩 187 7.4模型扩展:多模态预训练 188 7.4.1单流模型 189 7.4.2双流模型 191 第 8 章 总结和展望 195 8.1预训练语言模型的发展现状 195 8.2预训练语言模型的未来展望 199 参考文献 203
×
Close
添加到书单
加载中...
点此新建书单
×
Close
新建书单
标题:
简介:
蜀ICP备2024047804号
Copyright 版权所有 © jvwen.com 聚文网