您好,欢迎来到聚文网。 登录 免费注册
人工智能中的深度结构学习

人工智能中的深度结构学习

  • 字数: 119千字
  • 装帧: 平装
  • 出版社: 机械工业出版社
  • 作者: (加)尤舒亚·本吉奥(Yoshua Bengio) 著;俞凯,吴科 译
  • 出版日期: 2017-07-01
  • 商品条码: 9787111569350
  • 版次: 1
  • 开本: B5
  • 页数: 117
  • 出版年份: 2017
定价:¥35 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
理论结果表明,为了学习用于表示高层次的抽象(例如视觉、语言以及其他AI级别的任务)的复杂函数,我们需要深度结构。深度结构的组成包括了多层次的非线性操作,比如具有许多隐含层的神经网络,或者重用了许多子公式的复杂命题公式。搜索深度结构的参数空间是一件很困难的任务,但是近提出的诸如用于深度信念网络等的学习算法,对于探索这类问题取得了显著的成功,在某些领域达到了新的水平。本书讨论深度学习算法的方法和原理,尤其是那些被充分用作基石的单层模型的非监督学习算法例如受限玻尔兹曼机(RBM),它用于构建深度信念网络等深度模型。
作者简介
尤舒亚·本吉奥(Yoshua Bengio),加拿大蒙特利尔大学计算机科学与运筹学系教授,领导蒙特利尔学习算法研究所。他是深度学习历目前的代表性人物之一,发表了200余篇论文和两部专著,是加拿大论文引用率高的计算机科学家之一。
俞凯,上海交通大学计算机系研究员,思必驰公司首席科学家,IEEE不错会员,国家青年干人,NSFC优青。研究兴趣为语音语言处理、机器学习、人机交互。发表论文100余篇,获4篇靠前期刊及会议很优论文奖。
吴科,上海交通大学计算机系助理研究员,ACM会员。曾任阿里巴巴搜索研发专家,雅虎中国新闻搜索技术负责人。研究兴趣为自然语言处理及机器学习。
目录
译者序
1 引言
1.1 如何训练深度结构
1.2 中间层表示:在不同的任务享特征和抽象
1.3 学习人工智能的必经之路
1.4 本书大纲
2 深度结构的理论优势
2.1 计算复杂性
2.2 一些非正式的论证
3 局部与非局部泛化性
3.1 局部模板匹配的局限性
3.2 学习分布式表示
4 具有深度结构的神经网络
4.1 多层神经网络
4.2 训练深度神经网络的挑战
4.3 深度结构的无监督学习
4.4 深度生成结构
4.5 卷积神经网络
4.6 自动编码器
5 能量模型和玻尔兹曼机
5.1 能量模型和专家乘积系统
5.2 玻尔兹曼机
5.3 受限玻尔兹曼机
5.4 对比散度
6 深层结构的逐层贪心训练
6.1 深度置信网络的逐层训练
6.2 堆叠自动编码器训练
6.3 半监督与部分监督训练
7 受限玻尔兹曼机和自动编码器的变体
7.1 自动编码器和受限玻尔兹曼机的稀疏化表示
7.2 降噪自动编码器
7.3 层内连接
7.4 条件RBM和时序RBM
7.5 分解式RBM
7.6 受限玻尔兹曼机和对比散度的推广
8 DBN各层联合优化中的随机变分边界
8.1 将RBM展开为无限有向置信网络
8.2 逐层贪心训练的变分证明
8.3 所有层的联合无监督训练
9 展望
9.1 全局优化策略
9.2 无监督学习的重要性
9.3 开放的问题
10 总结
致谢
参考文献

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网