您好,欢迎来到聚文网。 登录 免费注册
可解释机器学习 黑盒模型可解释性理解指南(第2版)

可解释机器学习 黑盒模型可解释性理解指南(第2版)

  • 字数: 380000
  • 装帧: 平装
  • 出版社: 电子工业出版社
  • 作者: (德)克里斯托夫·莫尔纳 著 郭涛 译
  • 出版日期: 2024-10-01
  • 商品条码: 9787121490149
  • 版次: 2
  • 开本: 16开
  • 页数: 272
  • 出版年份: 2024
定价:¥118 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
机器学习虽然在改进产品性能、产品流程和推进研究方面有很大的潜力,但仍面临一大障碍――计算机无法解释其预测结果。因此,本书旨在阐明如何使机器学习模型及其决策具有可解释性。本书探索了可解释性的概念,介绍了许多简单的可解释模型,包括决策树、决策规则和线性回归等。本书的重点是模型不可知方法,用于解释黑盒模型(如特征重要性和累积局部效应),以及用Shapley 值和局部代理模型解释单个实例预测。此外,本书介绍了深度神经网络的可解释性方法。本书深入解释并批判性地讨论所有的可解释方法,如它们在黑盒下的运作机制,各自的优缺点,如何解释它们的输出结果。本书将帮助读者选择并正确应用最适用于特定机器学习项目的解释方法。本书适合机器学习从业者、数据科学家、统计学家及任何对机器学习模型可解释性感兴趣的读者阅读。
目录
第1章引言1
1.1故事时间1
1.1.1闪电不会击中两次2
1.1.2信任跌落4
1.1.3费米回形针5
1.2什么是机器学习7
1.3术语8
第2章可解释性11
2.1可解释性的重要性11
2.2可解释性方法分类16
2.3可解释性的范围17
2.3.1算法透明度17
2.3.2全局、整体模型的可解释性18
2.3.3模型层面的全局模型可解释性18
2.3.4单个预测的局部可解释性19
2.3.5一组预测的局部可解释性19
2.4评估可解释性19
2.5解释的特性20
2.6人性化的解释22
2.6.1什么是解释22
2.6.2什么是好的解释23
第3章数据集27
3.1自行车租赁(回归)27
3.2YouTube垃圾评论(文本分类)28
3.3宫颈癌风险因素(分类)29
第4章可解释模型30
4.1线性回归31
4.1.1解释32
4.1.2示例34
4.1.3可视化解释35
4.1.4解释单个预测37
4.1.5分类特征编码38
4.1.6线性模型能创造出好的解释吗40
4.1.7稀疏线性模型40
4.1.8优点43
4.1.9缺点43
4.2逻辑回归43
4.2.1线性回归用于分类存在的问题43
4.2.2理论45
4.2.3解释46
4.2.4示例47
4.2.5优点和缺点48
4.2.6软件48
4.3广义线性模型、广义加性模型及其他49
4.3.1非高斯结果——广义线性模型50
4.3.2交互作用54
4.3.3非线性效应——广义加性模型58
4.3.4优点62
4.3.5缺点62
4.3.6软件63
4.3.7进一步扩展63
4.4决策树64
4.4.1解释65
4.4.2示例66
4.4.3优点67
4.4.4缺点68
4.4.5软件69
4.5决策规则69
4.5.1从单一特征学习规则71
4.5.2顺序覆盖74
4.5.3贝叶斯规则列表77
4.5.4优点82
4.5.5缺点83
4.5.6软件和替代方案83
4.6RuleFit84
4.6.1解释和示例84
4.6.2理论86
4.6.3优点88
4.6.4缺点89
4.6.5软件和替代方案89
4.7其他可解释模型90
4.7.1朴素贝叶斯分类器90
4.7.2k近邻法90
第5章模型不可知方法91
第6章基于样本的解释93
第7章全局模型不可知方法95
7.1部分依赖图95
7.1.1基于部分依赖图的特征重要性96
7.1.2示例97
7.1.3优点99
7.1.4缺点99
7.1.5软件和替代方案100
7.2累积局部效应图100
7.2.1动机和直觉100
7.2.2理论103
7.2.3估算104
7.2.4示例107
7.2.5优点114
7.2.6缺点115
7.2.7软件与替代方案116
7.3特征交互作用116
7.3.1特征交互概念116
7.3.2理论:弗里德曼的H统计量117
7.3.3示例119
7.3.4优点121
7.3.5缺点121
7.3.6实现122
7.3.7替代方案122
7.4函数分解122
7.4.1如何不计算分量I124
7.4.2函数分解125
7.4.3如何不计算分量II125
7.4.4函数ANOVA126
7.4.5依赖特征的广义函数ANOVA127
7.4.6累积局部效应图128
7.4.7统计回归模型129
7.4.8锦上添花:部分依赖图130
7.4.9优点130
7.4.10缺点130
7.5置换特征重要性131
7.5.1理论131
7.5.2应该在训练数据还是测试数据上计算重要性132
7.5.3示例和解释134
7.5.4优点135
7.5.5缺点136
7.5.6替代方案137
7.5.7软件137
7.6全局代理模型138
7.6.1理论138
7.6.2示例139
7.6.3优点140
7.6.4缺点141
7.6.5软件141
7.7原型和批评141
7.7.1理论142
7.7.2示例146
7.7.3优点146
7.7.4缺点147
7.7.5软件和替代方案147
第8章局部模型不可知方法148
8.1个体条件期望148
8.1.1示例149
8.1.2优点152
8.1.3缺点152
8.1.4软件和替代方案152
8.2局部代理模型152
8.2.1表格数据的局部代理模型154
8.2.2文本的局部代理模型156
8.2.3图像的局部代理模型158
8.2.4优点158
8.2.5缺点159
8.3反事实解释160
8.3.1生成反事实解释162
8.3.2示例166
8.3.3优点167
8.3.4缺点168
8.3.5软件和替代方案168
8.4范围规则(锚点)169
8.4.1寻找锚点170
8.4.2复杂性和运行时间172
8.4.3表格数据示例173
8.4.4优点176
8.4.5缺点176
8.4.6软件和替代方案176
8.5Shapley值177
8.5.1总体思路177
8.5.2示例和解释179
8.5.3Shapley值详解181
8.5.4优点184
8.5.5缺点184
8.5.6软件和替代方案186
8.6SHAP186
8.6.1定义186
8.6.2KernelSHAP188
8.6.3TreeSHAP190
8.6.4示例191
8.6.5SHAP特征重要性192
8.6.6SHAP概要图193
8.6.7SHAP依赖关系图194
8.6.8SHAP交互作用值195
8.6.9聚类Shapley值196
8.6.10优点196
8.6.11缺点197
8.6.12软件197
第9章神经网络可解释性198
9.1学习特征198
9.1.1特征可视化199
9.1.2网络剖析202
9.1.3优点206
9.1.4缺点206
9.1.5软件和其他实现207
9.2像素归因207
9.2.1Vanilla梯度法(显著性图)209
9.2.2DeconvNet210
9.2.3Grad-CAM210
9.2.4GuidedGrad-CAM212
9.2.5SmoothGrad212
9.2.6示例213
9.2.7优点214
9.2.8缺点214
9.2.9软件215
9.3检测概念215
9.3.1TCAV:使用概念激活向量进行测试216
9.3.2示例217
9.3.3优点218
9.3.4缺点219
9.3.5其他基于概念的方法219
9.3.6软件220
9.4对抗性示例220
9.4.1方法和示例220
9.4.2网络安全视角225
9.5有影响实例227
9.5.1删除诊断229
9.5.2影响函数233
9.5.3识别有影响实例的优势237
9.5.4识别有影响实例的缺点238
9.5.5软件和替代方案238
第10章透视水晶球239
10.1机器学习的未来240
10.2可解释性的未来241
参考文献244
致谢251

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网