您好,欢迎来到聚文网。 登录 免费注册
AI可解释性(Python语言版)

AI可解释性(Python语言版)

  • 字数: 223000
  • 装帧: 平装
  • 出版社: 清华大学出版社
  • 作者: (意)列奥尼达·詹法纳,(意)安东尼奥·迪·塞科
  • 出版日期: 2022-08-01
  • 商品条码: 9787302605690
  • 版次: 1
  • 开本: 16开
  • 页数: 120
  • 出版年份: 2022
定价:¥59.8 销售价:登录后查看价格  ¥{{selectedSku?.salePrice}} 
库存: {{selectedSku?.stock}} 库存充足
{{item.title}}:
{{its.name}}
精选
编辑推荐
"《AI可解释性(Python语言版)》的出版恰逢其时,通过构建XAI的方法论体系,形成一组工具和方法,从而解释ML模型产生的复杂结果,帮助人们理解ML模型。本书从不可知论、依赖模型方法或内在可解释性构建了人工智能模型方法论,从全局可解释性和局部可解释性两个方面来回答AI“是什么”“为什么以及“如何做”等方面的问题。本书适合人工智能从业者、计算机科学家、统计科学家以及所有对机器学习模型可解释性感兴趣的读者阅读。 "
内容简介
本书全面介绍了AI可解释性的概念和可用技术,使机器学习系统更易于解释。书中提出的方法可以应用于几乎所有现有的机器学习模型:线性和逻辑回归、深度学习神经网络、自然语言处理和图像识别等等。 随着机器学习的发展,如今人们越来越多地使用人工智能体来执行以前由人类处理的关键任务(医疗、法律和金融等等)。虽然智能体的设计原则已被理解,但目前的大多数深度学习模型对人类理解而言是“不透明的”。《AI可解释性(Python语言版)》从理论和实践的角度填补了这个新兴主题文献方面的空白,使读者能够快速地使用可解释性AI的工具和代码。
作者简介
"Leonida Gianfagna博士是一位理论物理学家,目前在网络安全领域工作,担任Cyber Guru的研发总监。在加入Cyber Guru之前,他在IBM工作了15年,担任ITSM(IT服务管理)软件开发的领导。Leonida发表了多篇理论物理和计算机科学的论文,被授予IBM发明大师(IBM Master Inventor)。     Antonio Di Cecco是一位理论物理学家,拥有强大的数学背景。他接近致力于提供从入门到专家等不同层次的线上或线下AIML教育,使用深入挖掘AIML模型的数学基础的教育方法,并打开了新的角度来展示AIML知识和现有技术的改进空间。Antonio还拥有专注于创新和教学经验的经济学硕士学位。他还是一家意大利人工智能学院的领导,该学院在罗马和佩斯卡拉都有分支机构。 译者:郭涛,主要从事模式识别与人工智能、智能机器人、软件工程、地理人工智能(GeoAI)和时空大数据挖掘与分析等前沿交叉技术的研究。翻译出版了《复杂性思考:复杂性科学与计算模型(第2版)》《神经网络设计与实现》和《概率图模型及计算机视觉应用》等畅销书。"
目录
第1章 前景 1
1.1 AI可解释性示例 2
1.1.1 学习阶段 3
1.1.2 知识发现 4
1.1.3 可靠性和鲁棒性 5
1.1.4 三个示例的启示 5
1.2 ML和XAI 6
1.2.1 ML分类法 8
1.2.2 常见误解 11
1.3 对AI可解释性的需求 12
1.4 可解释性与可理解性:是否为表达相同事物的不同词语 14
1.4.1 从物质世界到人类 15
1.4.2 相关性不是因果性 16
1.4.3 那么可理解性和可解释性的区别是什么 19
1.5 使ML系统具备可解释性 21
1.5.1 XAI工作流程 21
1.5.2 全局视觉 24
1.6 我们真的需要ML模型的可解释性吗 26
1.7 小结 28
参考文献 29

第2章 AI可解释性:需求、机遇和挑战 31
……

蜀ICP备2024047804号

Copyright 版权所有 © jvwen.com 聚文网