购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

内容简介

如何在保证本地训练数据不公开的前提下,实现多个数据拥有者协同训练一个共享的机器学习模型?传统的机器学习方法需要将所有的数据集中到一个地方(例如,数据中心),然后进行机器学习模型的训练。但这种基于集中数据的做法无疑会严重侵害用户隐私和数据安全。如今,世界上越来越多的人开始强烈要求科技公司必须根据用户隐私法律法规妥善地处理用户的数据,欧盟的《通用数据保护条例》是一个很好的例子。在本书中,我们将描述联邦学习(亦称联邦机器学习)如何将分布式机器学习、密码学、基于金融规则的激励机制和博弈论结合起来,以解决分散数据的使用问题。我们会介绍不同种类的面向隐私保护的机器学习解决方案以及技术背景,并描述一些典型的实际问题解决案例。我们还会进一步论述联邦学习将成为下一代机器学习的基础,可以满足技术和社会需求并促进面向安全的人工智能的开发和应用。

本书可供计算机科学、人工智能和机器学习专业的学生,以及大数据和人工智能应用程序的开发人员阅读,也可供高等院校的教员、研究机构的研究人员、法律法规制定者和政府监管部门参考。

Original English Language edition published by Morgan & Claypool Publishers.

Part of Synthesis Lectures on Artificial Intelligence and Machine Learning.

Edited by Ronald Brachman, Francesca Rossi, and Peter Stone.

Copyright © 2020 by Morgan & Claypool Publishers

All rights reserved.

The Simplified Chinese translation rights arranged through Rightol Media.(本书中文简体版权经由锐拓传媒取得,E-mail:copyright@rightol.com) iHmim6WPkQAXws9WbkCO14pV67VrjyAeIVgcLKXydHYN8SGd0Fqk13Dn6A/Bgr6j

点击中间区域
呼出菜单
上一章
目录
下一章
×