好书推荐 好书速递 排行榜 读书文摘

分布式机器学习:算法、理论与实践

分布式机器学习:算法、理论与实践
作者:刘铁岩 / 陈薇 / 王太峰 / 高飞
出版社:机械工业出版社
出版年:2018-10
ISBN:9787111609186
行业:计算机
浏览数:37

内容简介

人工智能和大数据时代,解决最有挑战性问题的主流方案是分布式机器学习!本书旨在全面介绍分布式机器学习的现状,深入分析其中的核心技术问题,并且讨论该领域未来的发展方向。

由微软亚洲研究院机器学习核心团队潜心力作!鄂维南院士、周志华教授倾心撰写推荐序!

本书旨在全面介绍分布式机器学习的现状,深入分析其中的核心技术问题,并且讨论该领域未来的发展方向。

全书共12章。第1章是绪论,向大家展示分布式机器学习这个领域的全景。第2章介绍机器学习的基础知识。第3章到第8章是本书的核心部分,向大家细致地讲解分布式机器学习的框架及其各个功能模块。其中第3章给出整个分布式机器学习框架的综述,而第4章到第8章则分别针对其中的数据与模型划分模块、单机优化模块、通信模块、数据与模型聚合模块加以介绍。接下来的三章是对前面内容的总结与升华。其中第9章介绍由分布式机器学习框架中不同选项所组合出来的各式各样的分布式机器学习算法,第10章讨论这些算法的理论性质,第11章则介绍几个主流的分布式机器学习系统(包括Spark MLlib 迭代式MapReduce系统,Multiverso参数服务器系统,TensorFlow数据流系统)。最后的第12章是全书的结语,在对全书内容进行简要总结之后,着重讨论分布式机器学习这个领域未来的发展方向。

本书基于微软亚洲研究院机器学习研究团队多年的研究成果和实践经验写成,既可以作为研究生从事分布式机器学习方向研究的参考文献,也可以作为人工智能从业者进行算法选择和系统设计的工具书。

人工智能大潮中,市场上已有许多机器学习书籍,但是分布式机器学习的专门书籍还很少见。本书是希望学习和了解分布式机器学习的读者的福音。

......(更多)

作者简介

刘铁岩

微软亚洲研究院副院长。刘博士的先锋性研究促进了机器学习与信息检索之间的融合,被国际学术界公认为“排序学习”领域的代表人物。近年来在深度学习、分布式学习、强化学习等方面也颇有建树,发表论文200余篇,被引用近两万次。多次获得最佳论文奖、最高引用论文奖、Springer十大畅销华人作者、Elsevier 最高引中国学者等。被聘为卡内基-梅隆大学(CMU)客座教授,诺丁汉大学荣誉教授,中国科技大学教授、博士生导师;被评为国际电子电气工程师学会(IEEE)会士,国际计算机学会(ACM)杰出会员。

陈薇

微软亚洲研究院机器学习组主管研究员,研究机器学习各个分支的理论解释和算法改进,尤其关注深度学习、分布式机器学习、强化学习、博弈机器学习、排序学习等。2011年于中国科学院数学与系统科学研究院获得博士学位,同年加入微软亚洲研究院,负责机器学习理论项目,先后在NIPS、ICML、AAAI、IJCAI等相关领域顶级国际会议和期刊上发表文章30余篇。

王太峰

蚂蚁金服人工智能部总监、资深算法专家。在蚂蚁金服负责AI算法组件建设,算法工作服务于蚂蚁金服的支付、国际、保险等多条业务线。在加入蚂蚁之前在微软亚洲研究院工作11年,任主管研究员,他的研究方向包括大规模机器学习、数据挖掘、计算广告学等。在国际顶级的机器学习会议上发表近20篇的论文,在大规模机器学习工具开源方面也做出过很多贡献,在微软期间主持开发过DMTK的开源项目。

高飞

微软亚洲研究院副研究员,主要从事分布式机器学习和深度学习的研究工作,并在国际会议上发表多篇论文。2014年设计开发了当时规模最大的主题模型算法和系统LightLDA。他还开发了一系列分布式机器学习系统,并通过微软分布式机器学习工具包(DMTK)开源在GitHub上。

......(更多)

目录

序言一

序言二

前 言

作者介绍

第1章 绪论/ 1

1.1 人工智能及其飞速发展/ 2

1.2 大规模、分布式机器学习/ 4

1.3 本书的安排/ 6

参考文献/ 7

第2章 机器学习基础/ 9

2.1 机器学习的基本概念/ 10

2.2 机器学习的基本流程/ 13

2.3 常用的损失函数/ 16

2.3.1 Hinge损失函数/ 16

2.3.2 指数损失函数/ 16

2.3.3 交叉熵损失函数/ 17

2.4 常用的机器学习模型/ 18

2.4.1 线性模型/ 18

2.4.2 核方法与支持向量机/ 18

2.4.3 决策树与Boosting/ 21

2.4.4 神经网络/ 23

2.5 常用的优化方法/ 32

2.6 机器学习理论/ 33

2.6.1 机器学习算法的泛化误差/ 34

2.6.2 泛化误差的分解/ 34

2.6.3 基于容度的估计误差的上界/ 35

2.7 总结/ 36

参考文献/ 36

第3章 分布式机器学习框架/ 41

3.1 大数据与大模型的挑战/ 42

3.2 分布式机器学习的基本流程/ 44

3.3 数据与模型划分模块/ 46

3.4 单机优化模块/ 48

3.5 通信模块/ 48

3.5.1 通信的内容/ 48

3.5.2 通信的拓扑结构/ 49

3.5.3 通信的步调/ 51

3.5.4 通信的频率/ 52

3.6 数据与模型聚合模块/ 53

3.7 分布式机器学习理论/ 54

3.8 分布式机器学习系统/ 55

3.9 总结/ 56

参考文献/ 57

第4章 单机优化之确定性算法/ 61

4.1 基本概述/ 62

4.1.1 机器学习的优化框架/ 62

4.1.2 优化算法的分类和发展历史/ 65

4.2 一阶确定性算法/ 67

4.2.1 梯度下降法/ 67

4.2.2 投影次梯度下降法/ 69

4.2.3 近端梯度下降法/ 70

4.2.4 Frank-Wolfe算法/ 71

4.2.5 Nesterov加速法/ 72

4.2.6 坐标下降法/ 75

4.3 二阶确定性算法/ 75

4.3.1 牛顿法/ 76

4.3.2 拟牛顿法/ 77

4.4 对偶方法/ 78

4.5 总结/ 81

参考文献/ 8

第5章 单机优化之随机算法/ 85

5.1 基本随机优化算法/ 86

5.1.1 随机梯度下降法/ 86

5.1.2 随机坐标下降法/ 88

5.1.3 随机拟牛顿法/ 91

5.1.4 随机对偶坐标上升法/ 93

5.1.5 小结/ 95

5.2 随机优化算法的改进/ 96

5.2.1 方差缩减方法/ 96

5.2.2 算法组合方法/ 100

5.3 非凸随机优化算法/ 101

5.3.1 Ada系列算法/ 102

5.3.2 非凸理论分析/ 104

5.3.3 逃离鞍点问题/ 106

5.3.4 等级优化算法/ 107

5.4 总结/ 109

参考文献/ 109

第6章 数据与模型并行/ 113

6.1 基本概述/ 114

6.2 计算并行模式/ 117

6.3 数据并行模式/ 119

6.3.1 数据样本划分/ 120

6.3.2 数据维度划分/ 123

6.4 模型并行模式/ 123

6.4.1 线性模型/ 123

6.4.2 神经网络/ 127

6.5 总结/ 133

参考文献/ 133

第7章 通信机制/ 135

7.1 基本概述/ 136

7.2 通信的内容/ 137

7.2.1 参数或参数的更新/ 137

7.2.2 计算的中间结果/ 137

7.2.3 讨论/ 138

7.3 通信的拓扑结构/ 139

7.3.1 基于迭代式MapReduce/AllReduce的通信拓扑/ 140

7.3.2 基于参数服务器的通信拓扑/ 142

7.3.3 基于数据流的通信拓扑/ 143

7.3.4 讨论/ 145

7.4 通信的步调/ 145

7.4.1 同步通信/ 146

7.4.2 异步通信/ 147

7.4.3 同步和异步的平衡/ 148

7.4.4 讨论/ 150

7.5 通信的频率/ 150

7.5.1 时域滤波/ 150

7.5.2 空域滤波/ 153

7.5.3 讨论/ 155

7.6 总结/ 156

参考文献/ 156

第8章 数据与模型聚合/ 159

8.1 基本概述/ 160

8.2 基于模型加和的聚合方法/ 160

8.2.1 基于全部模型加和的聚合/ 160

8.2.2 基于部分模型加和的聚合/ 162

8.3 基于模型集成的聚合方法/ 167

8.3.1 基于输出加和的聚合/ 168

8.3.2 基于投票的聚合/ 171

8.4 总结/ 174

参考文献/ 174

第9章 分布式机器学习算法/ 177

9.1 基本概述/ 178

9.2 同步算法/ 179

9.2.1 同步SGD方法/ 179

9.2.2 模型平均方法及其改进/ 182

9.2.3 ADMM算法/ 183

9.2.4 弹性平均SGD算法/ 185

9.2.5 讨论/ 186

9.3 异步算法/ 187

9.3.1 异步SGD/ 187

9.3.2 Hogwild!算法/ 189

9.3.3 Cyclades算法/ 190

9.3.4 带延迟处理的异步算法/ 192

9.3.5 异步方法的进一步加速/ 199

9.3.6 讨论/ 199

9.4 同步和异步的对比与融合/ 199

9.4.1 同步和异步算法的实验对比/ 199

9.4.2 同步和异步的融合/ 201

9.5 模型并行算法/ 203

9.5.1 DistBelief/ 203

9.5.2 AlexNet/ 204

9.6 总结/ 205

参考文献/ 205

第10章 分布式机器学习理论/ 209

10.1 基本概述/ 210

10.2 收敛性分析/ 210

10.2.1 优化目标和算法/ 211

10.2.2 数据和模型并行/ 213

10.2.3 同步和异步/ 215

10.3 加速比分析/ 217

10.3.1 从收敛速率到加速比/ 218

10.3.2 通信量的下界/ 219

10.4 泛化分析/ 221

10.4.1 优化的局限性/ 222

10.4.2 具有更好泛化能力的非凸优化算法/ 224

10.5 总结/ 226

参考文献/ 226

第11章 分布式机器学习系统/ 229

11.1 基本概述/ 230

11.2 基于IMR的分布式机器学习系统/ 231

11.2.1 IMR和Spark/ 231

11.2.2 Spark MLlib/ 234

11.3 基于参数服务器的分布式机器学习系统/ 236

11.3.1 参数服务器/ 236

11.3.2 Multiverso参数服务器/ 237

11.4 基于数据流的分布式机器学习系统/ 241

11.4.1 数据流/ 241

11.4.2 TensorFlow数据流系统/ 243

11.5 实战比较/ 248

11.6 总结/ 252

参考文献/ 252

第12章 结语/ 255

12.1 全书总结/ 256

12.2 未来展望/ 257

索引/ 260

......(更多)

读书文摘

对模型参数更新进行通信,往往有利于提高分布式机器学习的效率,因为在很多机器学习任务中,参数以及参数的更新任务往往是稀疏的。同时随着模型趋于收敛,参数的更新也会越来越小,另外可以使用量化或者过滤的方法进一步减少通信数据量。

如果每个小批量训练的计算量很大,而模型规模又不大(CNN),通信开销可以忽略。反之,无法忽略。

......(更多)

猜你喜欢

点击查看