购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

1.2 联邦学习的发展历程

人工智能自被正式提出以来,经历了60多年的演进过程,现已成为一门应用广泛的前沿交叉学科。机器学习作为人工智能最重要的分支之一,应用场景丰富,落地应用众多。

随着大数据时代的到来,各行各业对数据分析的需求剧增,大数据、大模型、高计算复杂度的算法对机器的性能提出了更高的要求。在这样的背景下,单机可能无法很好地完成数据庞大、计算复杂度高的大模型训练,于是分布式机器学习技术应运而生。分布式机器学习使用大规模的异构计算设备(如GPU)和多机多卡集群进行训练,目标是协调和利用各分布式单机完成模型的快速迭代训练。

但是,之前传统的分布式机器学习技术需要先将集中管理的数据采取数据分块并行或者模型分块并行的方式进行学习,同样面临着数据管理方数据泄露的风险,这在一定程度上制约了分布式机器学习技术的实际应用和推广。

如何结合数据隐私保护与分布式机器学习,在保证数据安全的前提下合法合规地开展模型训练工作,是目前人工智能领域的研究热点问题之一。联邦学习技术在数据不出本地的前提下对多方模型进行联合训练,既保证了数据安全和隐私,又实现了分布式训练,是解决人工智能发展困境的可行途径。

本节将主要介绍联邦学习的发展历程。首先,由于联邦学习本质上属于一种分布式机器学习技术/框架的延伸,因此本节将简要介绍机器学习与分布式机器学习的概念和重要的发展节点;其次,由于联邦学习使用了很多数据隐私保护领域的研究成果,因此本节会介绍隐私保护相关研究的历程;最后,本节将概述正处于成长阶段的联邦学习发展过程。

1. 机器学习

机器学习的提出与发展可以追溯到20世纪40年代。早在1943年,Warren McCulloch和Walter Pitts就在其论文“A logical calculus of the ideas immanent in nervous activity” 中描述了神经网络的计算模型。该模型借鉴了生物细胞的工作原理,试图对大脑思维过程加以仿真,引起了许多学者对神经网络的研究兴趣。1956年达特茅斯会议正式提出人工智能概念。短短3年后,Arthur Samuel就给出了机器学习的概念。所谓机器学习,就是研究和构建一种特殊算法(而非某一个特定的算法),能够让计算机自己在数据中学习从而进行预测。

然而,由于当时的神经网络设计不当、要求进行数量庞大的计算,再加上硬件计算能力的限制,神经网络被认为是不可能实现的,机器学习的研究长期陷入停滞。直到20世纪90年代,随着云计算、异构计算等高新技术的发展,许多传统的机器学习算法被提出,并取得了良好的效果。1990年,Robert Schapire发表论文“The strength of weak learnability” ,文中提出弱学习集可以生成强学习,推动了机器学习领域使用Boosting算法;1995年,Corinna Cortes和Vapnik发表论文“Support-vector networks” ,提出支持向量机的模型;2001年,Breinman发表论文“Random forests” ,提出随机森林算法。随着深层网络模型和反向传播算法的提出,神经网络也重回研究视野,进入繁荣发展阶段。

2. 分布式机器学习

至今,机器学习已经发展出了很多分支,应用范围也越来越广泛。然而,随着数据量的持续增长,模型复杂度不断提高,单机节点无法承载大量的数据信息和计算资源,主流机器学习的发展遇到瓶颈。为了解决大数据训练慢的难题,分布式机器学习被提出。分布式机器学习技术将庞大的数据和计算资源部署到多台机器上,以提高系统的可扩展性和计算效率。

实现分布式的核心问题是如何进行数据的存储和数据的并行处理,当前主要的分布式数据处理技术主要基于Google提出的分布式文件存储和任务分解处理的思想。Google在2003年和2004年分别发表两篇关于Google分布式文件系统(GFS)和任务分解与整合(MapReduce)的论文,并公布了其中的细节。

基于这些核心思想,多家企业、科研机构开发了相应的大数据计算、大数据处理与分布式机器学习的平台。大数据计算与处理方面常见的平台有Hadoop、Spark和Flink等。Hadoop分布式系统的基础架构在2005年由Apache实现,其中的HDFS分布式文件系统为海量数据提供了存储空间,MapReduce为海量数据提供了计算支持,有效提高了大数据的处理速度。Spark平台则由加州大学伯克利分校AMP实验室开发,以数据流应用为主,扩展了MapReduce的应用。Flink是一种同时支持高吞吐、低延迟、高性能的分布式处理框架,近些年来被越来越多的国内公司所采用。

分布式机器学习训练分为 数据并行 模型并行 两种。数据并行是更常用的分布式训练方案,在这种方式下,所有设备自行维护一份参数,输入不同的数据,反向传播的时候通过AllReduce方法同步梯度,但是对于太大的模型不适用。由于数据并行会出现模型过大的情况,模型并行的方案被提出。模型并行主要包括层内并行和层间并行两种,但它们会有参数同步和更新的问题,对此业内正在探索更加高效的自动并行方法,尝试通过梯度压缩的方式来减少参数的通信量等。

随着分布式技术的发展,一些机器学习/深度学习框架纷纷宣布支持分布式。2013年年底,由卡内基梅隆大学邢波教授主导的机器学习研究小组开源Petuum平台,旨在提高并行处理效率。主流深度学习框架TensorFlow和PyTorch分别于2016年和2019年开始支持分布式运行和分布式训练。2017年1月,由亚马逊选定的官方开源平台MXNet及其项目进入Apache软件基金会。MXNet支持多种语言和快速模型训练。2018年3月,百度开源依托云端的分布式深度学习平台PaddlePaddle。2018年10月,华为推出一站式AI开发平台Model Arts,其中集成了MoXing分布式训练加速框架。MoXing构建于开源的深度学习引擎TensorFlow、MXNet、PyTorch、Keras之上,使得这些计算引擎的分布式性能更高,易用性更好。2019年1月,英特尔开源其分布式深度学习平台Nauta,该平台提供多用户的分布式计算环境,用于进行深度学习模型训练实验。

3. 隐私保护技术

如何在数据传输中保护数据的隐私安全,一直是密码学领域的一大研究热点。早在1982年,姚期智院士就提出了“百万富翁问题”,即两个百万富翁都想知道谁更富有,但都不愿意将自己的财富数字透露给对方,双方如何在不借助第三方的前提下获得这个问题的答案。由这个问题引申出了安全多方计算的研究领域。具体来说,该领域探讨设计的协议是解决一组互不信任的参与方之间如何在保护隐私信息且没有可信第三方的前提下协同计算的问题。目前已有多个安全多方计算框架,涉及的密码学技术有混淆电路、秘密共享、同态加密、不经意传输等。

混淆电路 针对双方安全计算,其思想是,将共同计算的函数转化为逻辑电路,对电路的每一个门都进行加密并打乱,从而保证计算过程中不会泄露原始输入和中间结果,双方根据各自的输入,对每个电路逻辑门的输出进行解密,直到获得答案。 秘密共享 的思想是,将需要保护的秘密按照某些适当的方式拆解并交予不同的参与方管理,只有一同协作才能恢复秘密消息。 同态加密 的思想由Rivest在1978年提出,之后Gentry又在其2009年发表的论文“Fully homomorphic encryption using ideal lattices” 中引申出全同态加密。全同态加密是指同时满足加同态和乘同态性质、可以进行任意多次加与乘运算的加密函数,通过这样的函数保障,经过同态加密处理的数据在解密后,其输出等于未加密原始数据经过同样操作后的输出。 不经意传输 则强调通信双方以一种选择模糊化的方式传送消息。

除了上述以加密为核心思想的技术,隐私保护技术还存在一种扰动方法,以差分隐私技术为代表。2008年,Dwork在论文“Differential privacy: A survey of results” 中提出差分隐私的应用,目前差分隐私已经被广泛应用在隐私保护中。它的主要思路是,给需要保护的数据添加干扰噪声,使得对于相差一条记录的两个数据集的查询有高概率获得相同结果,从而避免因差异化多次查询造成的隐私泄露问题。

4. 联邦学习

随着大数据与人工智能技术的发展,针对企业人工智能算法侵犯个人隐私的社会讨论层出不穷,机构之间在数据联合时无法很好地保护各方隐私,各国都在出台各种隐私保护的限制法案,数据孤岛已然成为人工智能发展的瓶颈。在这样的背景下,能够解决数据孤岛问题、保护数据安全与隐私的联邦学习技术应运而生。

2016年,谷歌研究科学家Brendan McMahan等人在论文“Communication-efficient learning of deep networks from decentralized data” 中提出了联邦学习的训练框架,框架采用一个中央服务器协调多个客户端设备联合进行模型训练。2017年4月,Brendan McMahan和Daniel Ramage在Google AI Blog上发表博文“Federated learning: Colla-borative machine learning without centralized training data” ,介绍了联邦学习在键盘预测方向上的应用与实现,并利用了简化版的TensorFlow框架。

谷歌的这些探索激发了国内外从业人员对于联邦学习技术与框架的探索热情。目前,国内外多家机构开发了基于联邦学习思想的模型训练框架和平台。Facebook开发的深度学习框架PyTorch开始采取联邦学习技术实现用户隐私保护。微众银行推出Federated AI Technology Enabler(FATE)开源框架,平安科技、百度、同盾科技、京东科技、腾讯、字节跳动等多家公司相继利用联邦学习技术打造智能化平台,展现了其应用于多领域、多行业的广阔前景。

联邦学习作为人工智能的新范式,可以化解大数据发展所面临的困境。随着业界对基于联邦学习技术的工业级、商业级、企业级平台的探索不断深入,市场上形成了百花齐放的态势。与此同时,关于联邦学习架构的规范与标准不断完善,实际可商业化落地的场景逐渐增多,联邦学习生态建设已经初步完成。 rTcrfoI/NgpYUJ3pQ8fiY5PPv37k1kXqDJWQ9g2qklACEWsqUDJmahRodhKV9TyK

点击中间区域
呼出菜单
上一章
目录
下一章
×