在人工智能与大数据时代,优化算法已成为机器学习与数据科学的核心支柱。本书以独特的应用视角,将抽象的数学理论与实际工程问题紧密结合,为读者架起了一座从理论到实践的桥梁。
本书由优化领域权威学者Stephen J. Wright和Benjamin Recht撰写,旨在为读者提供一本条理清晰、系统全面的优化技术指南,尤其聚焦数据科学与机器学习领域的核心优化技术。书中详细阐述了基本优化算法,并分析了它们的收敛性和复杂度。全书共11章,第1章通过典型案例阐释优化在现代数据分析中的应用;第2~10章深入剖析多种核心算法,包括加速梯度法、随机梯度法(机器学习的核心算法)、坐标下降法(高效处理高维问题的利器)、简单约束问题的梯度法、具有非平滑项的凸优化问题的理论和算法,以及约束优化问题的对偶方法;第11章拓展至深度学习与控制领域的梯度计算方法(如自动微分、反向传播的优化视角)。
作者简介
斯蒂芬·J. 赖特
(Stephen J. Wright)
现任威斯康星大学麦迪逊分校George B. Dantzig教授、 Sheldon Lubar讲席教授,以及 Amar和Balinder Sohi计算机科学教授,同时担任威斯康星州发现研究所(Wisconsin Institute for Discovery)的研究员。他主要研究计算优化及其在数据科学和科学工程其他领域的应用。他是美国工业与应用数学学会(SIAM)会士,曾获2014年IEEE W. R. G. Baker杰出论文奖、2020年INFORMS优化学会Khachiyan终身成就奖以及2020年NeurIPS时间检验奖。他著有多部优化领域经典教材与参考书,包括Primal Dual Interior-Point Methods(1987)和Numerical Optimization(2006)。
本杰明·雷希特
(Benjamin Recht)
加州大学伯克利分校电气工程与计算机科学系副教授。其研究团队致力于通过运用优化、统计和动力系统的数学工具,提升机器学习系统在动态不确定环境中的稳健性。他曾获总统科学家与工程师早期职业奖、Alfred P. Sloan研究奖、2012年SIAM/MOS拉格朗日连续优化奖、2014年Jamon奖、2015年William O. Baker研究倡议奖,以及2017年和2020年NeurIPS时间检验奖。