@Dounm
2018-08-30T19:48:46.000000Z
字数 7293
阅读 2932
Blog
分布式
本问旨在给初学者一个对于Spark快速上手的指南。
目的:在读完本文后可以写出简单的Spark Application,并在本地或集群上运行。
Apache Spark 是一个开源计算框架(open source cluster computing framework).最初由加州伯克利大学的AMPLab开发。
运行Spark计算框架需要一个cluster manager和一个distributed storage system
支持如下的cluster manager(包括但不仅限于):
支持如下的distributed storage system(包括但不仅限于):
框架 | 特点 |
---|---|
MapReduce | 一路计算的优秀解决方案。但是对于多路计算来说,数据数据处理流程中的每一步都需要一个Map阶段和一个Reduce阶段。在下一步开始之前,上一步的作业输出数据必须要存储到分布式文件系统中。因此,复制和磁盘存储会导致这种方式速度变慢 |
Spark | 将中间结果缓存在内存中,而非写入磁盘。Spark会尝试在内存中存储尽可能多的数据然后再将其写入磁盘。它可以将某个数据集的一部分存入内存而剩余部分存入磁盘。 |
Spark MLlib:基于Spark Core的分布式机器学习框架。因为数据都存在内存中,所以会比数据存在磁盘上的框架快很多。
包括了很多机器学习和统计学习算法,如下:
Spark SQL:使用数据抽象DataFrames来对结构化或半结构化的数据提供SQL查询支持。
Spark SQL is a component on top of Spark Core that introduces a new data abstraction called DataFrames,[a] which provides support for structured and semi-structured data.
Spark Streaming leverages Spark Core's fast scheduling capability to perform streaming analytics.
RDD is a read-only collections of elements distributed over a cluster of machines, that is maintained in a fault-tolerant way.
Spark's RDDs function as a working set for distributed programs that offers a (deliberately) restricted form of distributed shared memory.
有两种方式创建RDD数据集:
val data = Array(1, 2, 3, 4, 5)
val distData = sc.parallelize(data) //sc是SparkContext类型的变量,用于访问cluster
默认路径的是HDFS上。
如果想要访问本地的文件的话,需要加上file://
前缀,使用绝对路径。(如 file:///home/me/spark/README.md
)
//Spark-shell
scala> val distFile = sc.textFile("data.txt")
distFile: RDD[String] = MappedRDD@1d4cee08
scala> val distFile = sc.textFile()
//支持读取整个目录,压缩文件,通配符
sc.textFile("/my/directory")
sc.textFile("/my/directory/*.txt")
sc.textFile("/my/directory/*.gz")
Transformation会获取一个RDD作为参数,然后返回一个新的RDD,而非单个值。
Transformations are lazy. 他们不是立刻计算新的RDD,而是等待action向dirver program返回值的时候才会计算
常用Transformation:
map(func)
:把RDD中的每个元素都传入func函数,将返回值形成一个新的RDD并返回filter(func)
:把RDD每个元素传入func,将func返回值为true的元素形成一个新的RDD返回Action计算并返回一个新的值给driver program。
当在一个RDD对象上调用Action时,会在这一时刻计算全部的数据处理查询并返回结果值。
常用Action:
reduce(func)
:aggregate整个RDD数据集。func函数输入两个参数,返回一个参数。count()
:返回数据集中元素的个数first()
:返回数据集的第一个元素take(n)
:返回一个包含了RDD前n个元素的arrayval lines = sc.textFile("data.txt") //此时还没有将data.txt里的内容读入内存,Lines是RDD[Sting]类型的变量,但此时实质上只是指向文件的一个指针,
val lineLengths = lines.map(s => s.length) //LineLengths是RDD[Int]类型的变量,此时也没有立刻计算
val totalLength = lineLengths.reduce((a, b) => a + b) //开始计算,并且返回计算出来的结果给totalLength这个变量,totalLength是Int型变量,而非RDD[Int]
myRDD.saveAsTextFile("/path") //对RDD中的每个元素都调用toString()函数,然后按照每个element一行的格式输出到文件中
myRDD.take(100).foreach(println) //用于Spark-shell中,将RDD的前100个元素在控制台输出
即提交到集群上运行的应用程序(用Scala或Python等编写)。
每个Spark Application都有一个driver program来运行用户的main函数,然后在计算集群上运行并行操作。
首先需要先创建SparkConf 对象来配置Application的一些信息。
然后使用SparkConf对象来创建SparkContext
对象来告诉Spark如何access集群。
/* SimpleApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._ //Before Spark 1.3.0, you need to explicitly import org.apache.spark.SparkContext._ to enable essential implicit conversions.
import org.apache.spark.SparkConf
object SimpleApp {
def main(args: Array[String]) {
val logFile = "YOUR_SPARK_HOME/README.md" // Should be some file on your system
val conf = new SparkConf().setAppName("Simple Application") //AppName就是在集群监控页面现实的名字
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
}
}
默认的Scala语言支持的打包工具是SBT和Maven,我们仅介绍下Maven
Maven is a build automation tool used primarily for Java and Scala projects
Maven编译的项目目录下要形成这种类型的文件结构
其中pom.xml
(全称Project Object Model)是用来存储Maven在编译时的配置,配置包括了项目名称,项目依赖。
配置好了之后就是开始编译,我们使用mvn package
的命令,就会把源码打包成jar,存放在target目录下。
因为Maven在编译源码时会动态下载repository内最新版本lib和plug-ins,有时候会很慢,
我们可以通过–offline
参数来加快编译速度。
mvn package //首次编译
mvn package --offline //后续编译
spark-submit可执行文件位于SPARK_HOME/bin
文件夹内,用于提交Application并且运行。
命令详情:
/bin/spark-submit \
--class <main-class> //就是所编写的Application的类名,上例中就是SimpleApp
--master <master-url> \ //cluster管理程序的URL,可选值:local, yarn, spark://HOST:PORT
--deploy-mode <deploy-mode> \
--conf <key>=<value> \ //application的配置,像--number-executors = 10就是设置10个executors来执行文件
... # other options
<application-jar> \ //将源码利用maven打包出来的jar文件
[application-arguments] //编写类的参数输入
其中,参数-master
有如下几种常用取值:
Master URL | 含义 |
---|---|
local(default) | 在本地而非集群跑Spark作业,并且只有一个worker thread(所以,并事实上没有并行) |
local[k] | 在本地跑Spark Application,有k个worker thread |
spark://HOST:PORT | 连接到指定URL的standalone集群 |
mesos://HOST:PORT | 连接到指定的Mesos集群 |
yarn | 连接到默认的YARN集群。yarn集群在SPARK_HOME/conf/yarn-site.xml中指定 |
spark中有三个地方可以配置作业的提交参数,优先级由高到低如下:
val conf = new SparkConf().setMaster(yarn).setAppName("")
--master = yarn
spark.master yarn
SPARK_HOME/conf
中的各种配置文件的作用如下:
spark-shell是和Python的交互式解释器类似的程序。
内在的原理是调用spark-submit脚本,因此spark-shell也可以使用spark-submit的一些参数。
由上图可知,spark-shell已经创造了一个SparkContext对象并命名为sc
,因此我们无法再手动创建SparkContext对象了。
但是可以在调用spark-shell命令时通过参数来设置sc连接哪个master。
$ ./bin/spark-shell --master local[4]
$ ./bin/spark-shell --master yarn
LocalVector是存储在单台机器上的向量。以0为下标起始,值为double。分为两种格式:dense, sparse
import org.apache.spark.mllib.linalg.{Vector, Vectors}
// Create a dense vector (1.0, 0.0, 3.0)
val dv: Vector = Vectors.dense(1.0, 0.0, 3.0)
val dv: Vector = Vectors.dense(Array(1.0, 0.0, 3.0))
// Create a sparse vector (1.0, 0.0, 3.0) by specifying its indices and values corresponding to nonzero entries.(3 is the size of vector)
val sv1:Vector = Vectors.sparse(3, Array(0, 2), Array(1.0, 3.0))
// Create a sparse vector (1.0, 0.0, 3.0) by specifying its nonzero entries (3 is the size of vector).
val sv2: Vector = Vectors.sparse(3, List((0, 1.0), (2, 3.0)))
LabeledPoint主要用于监督学习,即为一个LocalVector配上一个label。
label为Double类型的:
举例:
import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.mllib.regression.LabeledPoint
// Create a labeled point with a positive label and a dense feature vector.
val pos = LabeledPoint(1.0, Vectors.dense(1.0, 0.0, 3.0))
// Create a labeled point with a negative label and a sparse feature vector.
val neg = La beledPoint(0.0, Vectors.sparse(3, Array(0, 2), Array(1.0, 3.0)))