您好,欢迎来到聚文网。 登录 免费注册
现代自然语言生成

现代自然语言生成

  • 字数: 292000
  • 装帧: 平装
  • 出版社: 电子工业出版社
  • 作者: 黄民烈,黄斐,朱小燕
  • 出版日期: 2021-01-01
  • 商品条码: 9787121402494
  • 版次: 1
  • 开本: 16开
  • 页数: 272
  • 出版年份: 2021
定价:¥79 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
本书总结了以神经网络为代表的现代自然语言生成的基本思想、模型和框架。本书共12章,首先介绍了自然语言生成的研究背景、从统计语言模型到神经网络语言建模的过程,以及自然语言建模的思想与技术演化过程;其次从基础模型角度介绍了基于循环神经网络、基于Transformer 的语言生成模型,从优化方法角度介绍了基于变分自编码器、基于生成式对抗网络的语言生成模型,从生成方式角度介绍了非自回归语言生成的基本模型和框架;然后介绍了融合规划的自然语言生成、融合知识的自然语言生成、常见的自然语言生成任务和数据资源,以及自然语言生成的评价方法;最后总结了本书的写作思路及对自然语言生成领域未来发展趋势的展望。本书可作为高等院校计算机科学与技术、人工智能、大数据等相关专业高年级本科生、研究生相关课程的教材,也适合从事自然语言处理研究、应用实践的科研人员和工程技术人员参考。
目录
第1章自然语言生成的研究背景.1
1.1自然语言生成的背景概述.1
1.2基本定义与研究范畴.2
1.3自然语言生成与自然语言理解.3
1.4传统的模块化生成框架.4
1.5端到端的自然语言生成框架.7
1.6典型的自然语言生成任务.9
1.7自然语言生成的可控性.12
1.8本书结构.14
第2章从统计语言模型到神经网络语言建模.15
2.1统计语言模型.15
2.1.1基本原理.15
2.1.2平滑技术.17
2.1.3语言模型评价.19
2.1.4统计语言模型的缺点.20
2.2神经网络语言模型.21
2.2.1前馈神经网络语言模型.21
2.2.2基于循环神经网络的神经语言模型.24
2.2.3基于Transformer的神经语言模型.24
2.3静态词向量模型.26
2.3.1分布假设与分布式表示.26
2.3.2词向量模型CBOW和Skip-gram.27
2.3.3词向量模型训练优化:负采样.30
2.3.4词向量模型训练优化:层次化softmax.31
2.3.5静态词向量的缺陷.32
2.4语境化语言表示模型.33
2.4.1ELMo.34
2.4.2BERT.36
2.4.3XLNet.38
2.5本章小结.39
第3章基于RNN的语言生成模型.41
3.1RNN的基本原理.41
3.2RNN的训练算法.42
3.3长短期记忆神经网络与门控循环单元.45
3.4RNN的架构设计.47
3.4.1多层RNN.47
3.4.2双向RNN.48
3.5基于RNN的语言模型.48
3.5.1模型结构.49
3.5.2主要问题.50
3.5.3模型改进.51
3.6序列到序列模型.52
3.6.1基本原理.52
3.6.2模型结构.53
3.6.3注意力机制.54
3.7解码器的解码方法.57
3.7.1基于搜索的解码方法.59
3.7.2基于采样的解码方法.61
3.8序列到序列模型存在的问题.64
3.9本章小结.65
第4章基于Transformer的语言生成模型.66
4.1Transformer模型的基本原理.66
4.1.1多头注意力机制.66
4.1.2Transformer基本单元.69
4.2基于Transformer的编码器―解码器结构.71
4.2.1基本原理.71
4.2.2位置编码模块.73
4.2.3Transformer编码器.74
4.2.4Transformer解码器.74
4.3Transformer模型与RNN模型的比较.77
4.4Transformer模型问题与解决方案.79
4.4.1长距离依赖问题.79
4.4.2运算复杂度问题.81
4.5基于Transformer的预训练语言生成模型.85
4.5.1GPT模型.86
4.5.2GPT-2和GPT-3.88
4.5.3GPT模型的扩展.90
4.6本章小结.92
第5章基于变分自编码器的语言生成模型.93
5.1自编码器.93
5.2变分自编码器.94
5.3条件变分自编码器.98
5.4解码器设计.100
5.5变分自编码器在语言生成
任务上的应用实例.102
5.5.1含类别约束的条件变分自编码器模型.102
5.5.2含隐变量序列的条件变分自编码器模型.104
5.6主要问题及解决方案.107
5.6.1隐变量消失.107
5.6.2可解释性增强.109
5.7本章小结.111
第6章基于生成式对抗网络的语言生成模型.113
6.1生成式对抗网络的背景.113
6.2生成式对抗网络的基本原理.115
6.3生成式对抗网络的基本结构.118
6.4生成式对抗网络的优化问题.120
6.4.1使用强化学习方法训练生成式对抗网络.120
6.4.2使用近似方法训练生成式对抗网络.123
6.5生成式对抗模型在文本与图像中的区别.126
6.6生成式对抗网络的应用.128
6.6.1对话生成.128
6.6.2无监督的风格迁移.129
6.7本章小结.130
第7章非自回归语言生成.131
7.1基本原理.131
7.1.1适用场景的问题定义.131
7.1.2自回归模型和非自回归模型.132
7.1.3模型结构.132
7.2非自回归模型的挑战.136
7.2.1一对多问题.136
7.2.2内部依赖问题.137
7.3非自回归模型的改进.138
7.3.1网络结构的改进.138
7.3.2模型理论的改进.139
7.3.3后处理的方法.142
7.3.4半自回归方法.143
7.4应用与拓展.144
7.5本章小结.145
第8章融合规划的自然语言生成.146
8.1数据到文本生成任务中的规划.147
8.1.1数据到文本生成任务的定义.147
8.1.2传统的模块化方法.149
8.1.3神经网络方法.150
8.2故事生成任务中的规划.158
8.2.1故事生成任务的定义.158
8.2.2传统方法.159
8.2.3神经网络方法.160
8.3本章小结.163
第9章融合知识的自然语言生成.164
9.1引入知识的动机.164
9.2引入知识面临的挑战.165
9.3知识的编码与表示.166
9.3.1结构化知识表示.167
9.3.2非结构化知识表示.170
9.4融合知识的解码方法.172
9.4.1拷贝网络.172
9.4.2生成式预训练.174
9.5应用实例.175
9.5.1基于多跳常识推理的语言生成.175
9.5.2故事生成.180
9.6发展趋势.185
9.6.1语言模型与知识的融合.185
9.6.2预训练模型与知识的融合.186
9.7本章小结.189
第10章常见的自然语言生成任务和数据资源.190
10.1机器翻译.190
10.1.1常规机器翻译.190
10.1.2低资源机器翻译.191
10.1.3无监督机器翻译.192
10.2生成式文本摘要.192
10.2.1短文本摘要.192
10.2.2长文本摘要.193
10.2.3多文档摘要.193
10.2.4跨语言文本摘要.193
10.2.5对话摘要.194
10.2.6细粒度文本摘要.195
10.3意义到文本生成.195
10.3.1抽象语义表示到文本生成.195
10.3.2逻辑表达式到文本生成.197
10.4数据到文本生成.197
10.5故事生成.200
10.5.1条件故事生成.200
10.5.2故事结局生成.201
10.5.3故事补全.202
10.5.4反事实故事生成.202
10.6对话生成.203
10.6.1常规对话生成.203
10.6.2知识导引的对话生成.204
10.6.3个性化对话生成.206
10.6.4情感对话生成.207
10.7多模态语言生成.208
10.7.1图像描述生成.208
10.7.2视频描述生成.208
10.7.3视觉故事生成.210
10.7.4视觉对话.210
10.8无约束语言生成.211
10.9本章小结.213
第11章自然语言生成的评价方法.214
11.1语言生成评价的角度.215
11.2人工评价.216
11.2.1人工评价的分类.216
11.2.2标注一致性.217
11.2.3人工评价的问题与挑战.219
11.3自动评价.220
11.3.1无需学习的自动评价方法.222
11.3.2可学习的自动评价方法.228
11.4自动评价与人工评价的结合.236
11.5自动评价与人工评价的统计相关性.238
11.5.1Pearson相关系数.238
11.5.2Spearman相关系数.239
11.5.3Kendall相关系数.239
11.5.4相关系数的显著性.240
11.6本章小结.240
第12章自然语言生成的趋势展望.242
12.1现状分析.242
12.2趋势展望.245
参考文献.249

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网