购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

3.1 什么是RDD

Spark提供了一种对数据的核心抽象,称为弹性分布式数据集(Resilient Distributed Dataset,RDD)。这个数据集的全部或部分可以缓存在内存中,并且可以在多次计算时重用。RDD其实就是一个分布在多个节点上的数据集合。

RDD的弹性主要是指:当内存不够时,数据可以持久化到磁盘,并且RDD具有高效的容错能力。分布式数据集是指一个数据集存储在不同的节点上,每个节点存储数据集的一部分。例如,将数据集(hello,world,scala,spark,love,spark,happy)存储在三个节点上,节点一存储(hello,world),节点二存储(scala,spark,love),节点三存储(spark,happy),这样对三个节点的数据可以并行计算,并且三个节点的数据共同组成了一个RDD,如图3-1所示。

图3-1 RDD分布式数据集

分布式数据集类似于HDFS中的文件分块,不同的块存储在不同的节点上;而并行计算类似于使用MapReduce读取HDFS中的数据并进行Map和Reduce操作。Spark则包含这两种功能,并且计算更加灵活。

RDD的主要特征如下:

● RDD是不可变的,但可以将RDD转换成新的RDD进行操作。

● RDD是可分区的。RDD由很多分区组成,每个分区对应一个Task任务来执行(关于分区将在3.4节详细讲解)。

● 对RDD进行操作,相当于对RDD的每个分区进行操作。

● RDD拥有一系列对分区进行计算的函数,称为算子(关于算子将在3.3节详细讲解)。

● RDD之间存在依赖关系,可以实现管道化,避免了中间数据的存储。

在编程时,可以把RDD看作是一个数据操作的基本单位,而不必关心数据的分布式特性,Spark会自动将RDD的数据分发到集群的各个节点。Spark中对数据的操作主要是对RDD的操作(创建、转化、求值)。

接下来将对RDD进行深入的讲解。 wPHTlkvSfdTwcchL7KSlz46gbom/KV88NYgV4oMTf2OluIXgeqFd0EjQo3V35NIG

点击中间区域
呼出菜单
上一章
目录
下一章
×