您好,欢迎来到聚文网。
登录
免费注册
网站首页
|
联系客服
|
搜索
热搜:
三年级必读书
|
购物车
0
我的订单
商品分类
首页
幼儿
文学
社科
教辅
生活
销量榜
Transformer原理解析及中文项目实践(微课视频版)/跟我一起学人工智能
字数: 343
出版社: 清华大学
作者: 编者:沈志龙|
商品条码: 9787302696322
适读年龄: 12+
版次: 1
开本: 16开
页数: 244
出版年份: 2025
印次: 1
定价:
¥69
销售价:
登录后查看价格
¥{{selectedSku?.salePrice}}
库存:
{{selectedSku?.stock}}
库存充足
{{item.title}}:
{{its.name}}
加入购物车
立即购买
收藏
上架到店铺
×
Close
上架到店铺
{{shop.name}}
点此去绑定店铺
精选
¥5.83
世界图书名著昆虫记绿野仙踪木偶奇遇记儿童书籍彩图注音版
¥5.39
正版世界名著文学小说名家名译中学生课外阅读书籍图书批发 70册
¥8.58
简笔画10000例加厚版2-6岁幼儿童涂色本涂鸦本绘画本填色书正版
¥5.83
世界文学名著全49册中小学生青少年课外书籍文学小说批发正版
¥4.95
全优冲刺100分测试卷一二三四五六年级上下册语文数学英语模拟卷
¥8.69
父与子彩图注音完整版小学生图书批发儿童课外阅读书籍正版1册
¥24.2
好玩的洞洞拉拉书0-3岁宝宝早教益智游戏书机关立体翻翻书4册
¥7.15
幼儿认字识字大王3000字幼儿园中班大班学前班宝宝早教启蒙书
¥11.55
用思维导图读懂儿童心理学培养情绪管理与性格培养故事指导书
¥19.8
少年读漫画鬼谷子全6册在漫画中学国学小学生课外阅读书籍正版
¥64
科学真好玩
¥12.7
一年级下4册·读读童谣和儿歌
¥38.4
原生态新生代(传统木版年画的当代传承国际研讨会论文集)
¥11.14
法国经典中篇小说
¥11.32
上海的狐步舞--穆时英(中国现代文学馆馆藏初版本经典)
¥22.05
猫的摇篮(精)
¥30.72
幼儿园特色课程实施方案/幼儿园生命成长启蒙教育课程丛书
¥24.94
旧时风物(精)
¥12.04
三希堂三帖/墨林珍赏
¥6.88
寒山子庞居士诗帖/墨林珍赏
¥6.88
苕溪帖/墨林珍赏
¥6.88
楷书王维诗卷/墨林珍赏
¥9.46
兰亭序/墨林珍赏
¥7.74
祭侄文稿/墨林珍赏
¥7.74
蜀素帖/墨林珍赏
¥12.04
真草千字文/墨林珍赏
¥114.4
进宴仪轨(精)/中国古代舞乐域外图书
¥24.94
舞蹈音乐的基础理论与应用
内容简介
本书深入浅出地介绍深度学习中的序列模型及其发展历程,重点讲解Transformer架构及其变体的原理与实践应用。全书共5章,旨在帮助读者从理论基础到实践应用,全面掌握Transformer技术。 第1章详细介绍RNN和LSTM的原理、代码实践及存在的问题与挑战。第2章全面剖析Transformer的核心思想、总体架构及各组成部分的实现方法。第3章从自定义代码出发,详细地讲解词嵌入、多头注意力层、前馈网络层、编码器层和解码器层的构建方法,以及如何训练Transformer模型。第4章介绍Transformer变体与进阶部分。第5章介绍利用HuggingFace实践Transformer,首先介绍HuggingFace社区和Transformers库,然后通过实际应用案例,如文本分类、情感分类、命名实体识别等,展示了如何使用Transformers库进行项目开发,最后讲解模型微调的各种方法,以及Transformer的影响和未来展望。 本书适合对深度学习、序列模型和Transformer感兴趣的读者,无论是初学者还是有一定基础的开发者都能从中获得丰富的理论知识和实践经验。同时,本书也可作为高等院校和培训机构相关专业的教学参考书。
作者简介
沈志龙,统计学硕士、AI算法专家,拥有数学和统计学背景,对自然语言处理、机器学习、深度学习等领域具有深厚的理论知识和实践经验。在数据分析和挖掘领域耕耘多年,对数据分析、机器学习、深度学习和知识图谱等方向有深入的研究和探索。在文本分类、命名实体识别、文本生成等自然语言处理任务上具有丰富的实战经验,对于Transformer技术应该具备的核心专业能力有深入的理解和掌握。
目录
第1章 引言 1.1 深度学习与序列模型的进化 1.1.1 RNN原理 1.1.2 RNN代码实践 1.1.3 RNN的问题与挑战 1.1.4 LSTM原理 1.1.5 LSTM代码实践 1.1.6 LSTM的问题与挑战 1.2 Transformer的诞生背景 1.2.1 Seq2Seq模型 1.2.2 Seq2Seq代码实践 1.2.3 注意力机制的崛起 1.2.4 注意力机制代码解读 1.2.5 论文“Attention is All You Need”简介第2章 Transformer架构解析 2.1 Transformer总览 2.1.1 Transformer的核心思想 2.1.2 Transformer的总体架构 2.2 Transformer的实现 2.2.1 自注意力机制的原理和实现 2.2.2 多头注意力的原理和实现 2.2.3 位置编码的作用和实现 2.2.4 前馈网络层 2.2.5 残差连接和层归一化 2.2.6 解码器的结构和功能第3章 训练Transformer 3.1 自定义Transformer代码 3.1.1 词嵌入和位置编码 3.1.2 多头注意力层 3.1.3 前馈网络层 3.1.4 编码器层和解码器层 3.1.5 构建Transformer模型 3.1.6 训练Transformer模型 3.2 实践训练 3.2.1 数据准备 3.2.2 模型定义及训练 3.2.3 模型预测第4章 Transformer变体与进阶 4.1 BERT 4.1.1 BERT架构与原理 4.1.2 BERT训练过程解析 4.2 GPT系列 4.2.1 从GPT到GPT-4o 4.2.2 GPT训练过程解析 4.3 其他变体 4.3.1 ALBERT 4.3.2 RoBERTa 4.3.3 T5 4.3.4 知识蒸馏原理及实践第5章 利用Hugging Face实践Transformer
×
Close
添加到书单
加载中...
点此新建书单
×
Close
新建书单
标题:
简介:
蜀ICP备2024047804号
Copyright 版权所有 © jvwen.com 聚文网