您好,欢迎来到聚文网。 登录 免费注册
可解释AI实战(PyTorch版)

可解释AI实战(PyTorch版)

  • 字数: 358
  • 出版社: 清华大学
  • 作者: (英)阿杰伊·塔姆佩|译者:叶伟民//朱明超//刘华//叶孟良//袁敏
  • 商品条码: 9787302654865
  • 版次: 1
  • 开本: 16开
  • 页数: 269
  • 出版年份: 2024
  • 印次: 1
定价:¥98 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
内容简介
\"可解释AI(Interpretable AI)将教会你识别模型所学习的模式及其产生结果的原因。通过阅读《可解释AI实战(PyTorch版)》,你将掌握一些用于解释白盒模型(如线性回归和广义可加模型)的方法,以及一些用于解释复杂深度学习模型的方法。可解释AI是一个快速发展的领域,本书将该领域的前沿研究简化为你可以在Python中实现的实际方法。 主要内容 ● 解释AI模型的技术 ● 最大限度地减少错误、偏见、数据泄露和概念漂移 ● 度量公平性和减少偏见 ● 构建符合GDPR的AI系统\"
作者简介
  Ajay Thampi 在机器学习领域具有扎实的基础。他的博士研究主要专注于信号处理和机器学习。他发表过许多关于强化学习、凸优化和传统机器学习技术应用于5G移动网络的论文。Ajay 目前在一家大型科技公司担任机器学习工程师,主要关注负责任的AI和AI公平性。在此之前,Ajay是微软的高级数据科学家,负责为各行各业(如制造业、零售业和金融业)的客户部署复杂的人工智能解决方案。
目录
第Ⅰ部分 可解释基础知识 第1章 导论 1.1 Diagnostics+AI——AI系统示例 1.2 机器学习系统的类型 1.2.1 数据的表示 1.2.2 监督学习 1.2.3 无监督学习 1.2.4 强化学习 1.2.5 最适合Diagnosticst AI的机器学习系统 1.3 构建Diagnostics+AI 1.4 Diagnostics+的主要问题 1.4.1 数据泄露 1.4.2 偏见 1.4.3 监管不合规 1.4.4 概念漂移 1.5 如何解决这些主要问题 1.6 Interpretability与Explainability 1.7 你将在本书学到什么 1.7.1 本书使用的工具 1.7.2 阅读本书所需的基础知识 1.8 本章小结 第2章 白盒模型 2.1 白盒模型概述 2.2 Diagnostics+AI示例:预测糖尿病进展情况 2.3 线性回归 2.3.1 解释线性回归 2.3.2 线性回归的局限性 2.4 决策树 2.4.1 解释决策树 2.4.2 决策树的局限性 2.5 广义可加模型(GAM) 2.5.1 回归样条 2.5.2 GAM用于Diagnostics+AI预测糖尿病进展 2.5.3 解释GAM 2.5.4 GAM的局限性 2.6 展望黑盒模型 2.7 本章小结 第Ⅱ部分 解释模型处理 第3章 全局与模型无关可解释技术 3.1 高中生成绩预测器 3.2 集成树 3.3 解释随机森林 3.4 模型无关方法:全局可解释 3.4.1 部分依赖图 3.4.2 特征的相互作用 3.5 本章小结 第4章 局部与模型无关可解释技术 4.1 Diagnostics+AI示例:乳腺癌诊断 4.2 探索性数据分析 4.3 深度神经网络

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网