您好,欢迎来到聚文网。 登录 免费注册
统计学习必学的十个问题(理论与实践)

统计学习必学的十个问题(理论与实践)

  • 字数: 245
  • 出版社: 清华大学
  • 作者: 李轩涯//张暐|责编:贾斌
  • 商品条码: 9787302577171
  • 版次: 1
  • 开本: 16开
  • 页数: 145
  • 出版年份: 2021
  • 印次: 1
定价:¥49.8 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
\\\\\\\\\\\\\\\"统计学习是机器学习的重要分支,本书兼顾了数学上的理论和代码实践,内容主要包括基础知识和统计学习模型。第1章、第2章结合VC维介绍过拟合的本质,并介绍手动特征选择的办法; 第3章、第4章从最简单的线性模型出发经过概率统计的解读而得到分类和回归算法; 第5章讨论不依赖于假设分布的非参数模型; 第6章介绍将核方法作为一种非线性拓展的技巧,介绍如何将该方法应用到很多算法中,并引出了著名的高斯过程; 第7章以混合高斯作为软分配聚类的代表性方法,从而引出著名的EM算法; 第8章讨论了机器学习的集成算法; 第9章介绍的线性和非线性降维方法将会解决维度灾难问题,并且不同于单纯的特征选择; 第10章讨论不依赖于独立同分布假设的时间序列算法。 本书适合对于统计学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。 \\\\\\\\\\\\\\\"
作者简介
李轩涯,中国计算机学会杰出会员、常务理事,中国计算机实践教育联合会副理事长。现主管百度校企合作、校企联合人才培养、校园粉丝生态圈,帮助百度技术、人才及产品品牌在高校领域的推广与影响力传播。
目录
第1章防止过拟合 1.1过拟合和欠拟合的背后 1.2性能度量和损失函数 1.3假设空间和VC维 1.4偏差方差分解的意义 1.5正则化和参数绑定 1.6使用scikitlearn 第2章特征选择 2.1包裹法 Warpper 2.2过滤法 Filter 2.3嵌入法 Embedded 2.4使用scikitlearn 第3章回归算法中的贝叶斯 3.1快速理解判别式模型和生成式模型 3.2极大似然估计和平方损失 3.3最大后验估计和正则化 3.4贝叶斯线性估计 3.5使用scikitlearn 第4章分类算法中的贝叶斯 4.1广义线性模型下的sigmoid函数和softmax函数 4.2对数损失和交叉熵 4.3逻辑回归的多项式拓展和正则化 4.4朴素贝叶斯分类器 4.5拉普拉斯平滑和连续特征取值的处理方法 4.6使用scikitlearn 第5章非参数模型 5.1K近邻与距离度量 5.2K近邻与kd树 5.3决策树和条件熵 5.4决策树的剪枝 5.5连续特征取值的处理方法和基尼指数 5.6回归树 5.7使用scikitlearn 第6章核方法 6.1核方法的本质 6.2对偶表示和拉格朗日乘子法 6.3常见算法的核化拓展 6.4高斯过程 6.5使用scikitlearn 第7章混合高斯: 比高斯分布更强大 7.1聚类的重要问题 7.2潜变量与K均值 7.3混合高斯和极大似然估计的失效 7.4EM算法的核心步骤 7.5使用scikitlearn 第8章模型组合策略 8.1Bagging和随机森林 8.2Boosting的基本框架 8.3Adaboost 8.4GBDT和XGBoost 8.5使用scikitlearn 第9章核化降维和学习流形 9.1线性降维 9.2核化线性降维 9.3流形学习 9.4使用scikitlearn 第10章处理时间序列 10.1概率图模型和隐变量 10.2高阶马尔可夫模型 10.3隐马尔可夫模型 10.4隐马尔可夫模型的EM算法 10.5使用scikitlearn 参考文献

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网