Spark计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。三大数据结构分别是:
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local[*]").setAppName("WordCount")
val sc = new SparkContext(conf)
val rdd: RDD[Int] = sc.makeRDD(
List(1, 2, 3, 4),2
)
var sum = 0
rdd.foreach(
num => num + sum
)
println(sum)
sc.stop()
}
以上代码中,list和sum分别在Driver端声明,而foreach是一个行动算子,在Executor端执行,执行时在Executor端没有发现sum,因闭包,会将sum传给Executor端,计算完成之后,分区一中的sum = 3,分区二中的sum = 7,而println在Driver端执行,Driver中的sum仍然等于0,所以最终返回0,关键在于Executor端执行完成的sum没有传回到Driver端,在以上代码的实现方式中,无法将计算结果返回到Driver端,因为sum能够传到Executor的原因是闭包,存在闭包,所以Spark知道在以后的执行中可能会用到sum,但是它并不知道最终的计算结果也要返回到Driver端
list与rdd有关,所以可以通过rdd.collect
采集回去,但sum只是一个变量,与rdd没有任何的关系,所以没有办法告诉Spark将sum也采集回去
累加器用来把Executor端变量信息聚合到Driver端。在Driver程序中定义的变量,在Executor端的每个Task都会得到这个变量的一份新的副本,每个task更新这些副本的值后,传回Driver端进行merge,将多个分区的sum在Driver端进行合并
在kafka中Producer的主线程将生产的数据放到缓冲区中,sender线程将数据从缓冲区取出放到kafka集群中,这样就可以让生产的数据均匀一些,这个缓冲区叫做RecordAccmulator,kafka使用双端队列实现生产有序,这个双端队列(DQ)就在缓冲区中
Sqark中的其中一个累加器叫做longAccmulator
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local[*]").setAppName("WordCount")
val sc = new SparkContext(conf)
val rdd: RDD[Int] = sc.makeRDD(
List(1, 2, 3, 4),2
)
// 创建累加器
val sum: LongAccumulator = sc.longAccumulator("sum")
rdd.foreach(
num => {
// 使用累加器
sum.add(num)
}
)
// 获取累加器的结果
println(sum.value)
sc.stop()
}
使用累加器实现wordcount
累加器源码解析:
def longAccumulator(name: String): LongAccumulator = {
// 构建一个对象
val acc = new LongAccumulator
register(acc, name)
acc
}
class LongAccumulator extends AccumulatorV2[jl.Long, jl.Long] {}
abstract class AccumulatorV2[IN, OUT] extends Serializable {}
根据源码来看,自定义累加器的流程
继承AccumulatorV2类
定义泛型
重写方法,6个(3【与计算相关】 + 3【与状态相关】)
isZero:判断累加器是否为初始状态
copy: 复制累加器
reset: 重置累加器,原来的map中有数据,现在需要将其清空
add: 从外部向累加器中添加数据
merge: 合并多个累加器的结果
value: 将结果返回到外部
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local[*]").setAppName("WordCount")
val sc = new SparkContext(conf)
val rdd: RDD[String] = sc.makeRDD(
List(
"spark",
"spark",
"spark",
"spark",
"spark",
"scala",
"scala"
)
)
// 创建累加器
val accu = new WordCountAccu()
// 向spark进行注册
sc.register(accu,"wordCount")
rdd.foreach(
word => {
// 将单词加入到累加器
accu.add(word)
}
)
// 输出结果
println(accu.value)
sc.stop()
}
class WordCountAccu extends AccumulatorV2[String,mutable.Map[String,Int]]{
// 将结果存储到map
private val wcMap: mutable.Map[String, Int] = mutable.Map[String, Int]()
// 判断累加器是否为初始状态
override def isZero: Boolean = {
wcMap.isEmpty
}
override def copy(): AccumulatorV2[String, mutable.Map[String, Int]] = {
new WordCountAccu()
}
// 重置累加器,原来的map中有数据,现在需要将其清空
override def reset(): Unit = {
wcMap.clear()
}
// 从外部向累加器中添加数据
override def add(word: String): Unit = {
val oldCnt: Int = wcMap.getOrElse(word,0)
wcMap.update(word,oldCnt + 1)
}
// 合并多个累加器的结果
override def merge(other: AccumulatorV2[String, mutable.Map[String, Int]]): Unit = {
other.value.foreach{
case (word,cnt) => {
val oldCnt: Int = wcMap.getOrElse(word,0)
wcMap.update(word,oldCnt + cnt)
}
}
}
// 将结果返回到外部
override def value: mutable.Map[String, Int] = wcMap
}
为什么进行以下操作
copy:将累加器从Driver端复制到Executor端
reset:分布式计算中,如果原始累加器因网络原因发送分区一成功,分区二失败,当分区一计算完成,累加器返回到Driver端,如果将计算完成的累加器传给分区二,若不重置,会造成结果错误,累加器是一个分布式的只写变量,所以这就要求它累加器之间不能互相读取,使用重置实现
isZero:先执行copy,再执行reset,最后执行isZero,如果isZero返回false会报错assertion failed: copyAndReset must return a zero value copy
源码如下:
final def assert(assertion: Boolean, message: => Any) {
if (!assertion)
throw new java.lang.AssertionError("assertion failed: "+ message)
}
val copyAcc = copyAndReset()
assert(copyAcc.isZero, "copyAndReset must return a zero value copy")
def copyAndReset(): AccumulatorV2[IN, OUT] = {
val copyAcc = copy()
copyAcc.reset()
copyAcc
}
累加器重复计算的问题:将累加器放在转换算子当中,转换算子如果重复使用的场景下,数据会重复计算
累加器没有计算问的题:将累加器放在转换算子当中,没有执行行动算子,数据不会计算
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local[*]").setAppName("WordCount")
val sc = new SparkContext(conf)
val rdd: RDD[Int] = sc.makeRDD(
List(1, 2, 3, 4),2
)
// 创建累加器
val sum: LongAccumulator = sc.longAccumulator("sum")
val rdd1: RDD[Int] = rdd.map {
num => {
sum.add(num)
num * 2
}
}
rdd1.collect()
rdd1.foreach(println)
println("************")
// 获取累加器的结果
println(sum.value)
sc.stop()
}
实现两个rdd的join操作
val rdd1: RDD[(String, Int)] = sc.makeRDD(
List(("a", 1), ("b", 2))
)
val rdd2: RDD[(String, Int)] = sc.makeRDD(
List(("a", 3), ("b", 4))
)
val rdd3: RDD[(String, (Int, Int))] = rdd1.join(rdd2)
rdd3.collect().foreach(println)
join操作的缺点:可能会产生笛卡尔乘积,存在shuffle
使用map提升性能,没有笛卡尔,没有shuffle
val rdd1: RDD[(String, Int)] = sc.makeRDD(
List(("a", 1), ("b", 2))
)
val map: mutable.Map[String, Int] = mutable.Map[String, Int](
("a", 3), ("b", 4)
)
val rdd2: RDD[(String, (Int, Int))] = rdd1.map {
case (word, cnt) => {
val cnt1: Int = map.getOrElse(word, 0)
(word, (cnt, cnt1))
}
}
rdd2.collect().foreach(println)
以上代码存在一个问题,map是在Driver端声明,而map算子在Executor端执行,如果map中存在大量数据,每一个task都会有一个存放map的内存,造成内存中存在大量的数据冗余,如果将map中的数据放到Executor中,可解决数据冗余的问题
广播变量用来高效分发较大的对象。向所有工作节点发送一个较大的只读值,以供一个或多个Spark操作使用。比如,如果应用需要向所有节点发送一个较大的只读查询表,广播变量用起来都很顺手。在多个并行操作中使用同一个变量,但是 Spark会为每个任务分别发送
val rdd1: RDD[(String, Int)] = sc.makeRDD(
List(("a", 1), ("b", 2))
)
val map: mutable.Map[String, Int] = mutable.Map[String, Int](
("a", 3), ("b", 4)
)
val bcMap: Broadcast[mutable.Map[String, Int]] = sc.broadcast(map)
val rdd2: RDD[(String, (Int, Int))] = rdd1.map {
case (word, cnt) => {
val cnt1: Int = bcMap.value.getOrElse(word, 0)
(word, (cnt, cnt1))
}
}
rdd2.collect().foreach(println)
日期 用户ID Session ID 页面ID 动作时间 搜索关键字 点击数据 下单行为 支付行为
上面的数据图是从数据文件中截取的一部分内容,表示为电商网站的用户行为数据,主要包含用户的4种行为:搜索,点击,下单,支付。数据规则如下:
数据文件中每行数据采用下划线分隔数据
每一行数据表示用户的一次行为,这个行为只能是4种行为的一种
如果搜索关键字为null,表示数据不是搜索数据
如果点击的品类ID和产品ID为-1,表示数据不是点击数据
针对于下单行为,一次可以下单多个商品,所以品类ID和产品ID可以是多个,id之间采用逗号分隔,如果本次不是下单行为,则数据采用null表示
支付行为和下单行为类似
详细字段说明:
编号 | 字段名称 | 字段类型 | 字段含义 |
---|---|---|---|
1 | date | String | 用户点击行为的日期 |
2 | user_id | Long | 用户的ID |
3 | session_id | String | Session的ID |
4 | page_id | Long | 某个页面的ID |
5 | action_time | String | 动作的时间点 |
6 | search_keyword | String | 用户搜索的关键词 |
7 | click_category_id | Long | 某一个商品品类的ID |
8 | click_product_id | Long | 某一个商品的ID |
9 | order_category_ids | String | 一次订单中所有品类的ID集合 |
10 | order_product_ids | String | 一次订单中所有商品的ID集合 |
11 | pay_category_ids | String | 一次支付中所有品类的ID集合 |
12 | pay_product_ids | String | 一次支付中所有商品的ID集合 |
13 | city_id | Long | 城市 id |
注:编号代表其在数据中的位置,数组从0开始
样例类:
//用户访问动作表
case class UserVisitAction(
date: String,//用户点击行为的日期
user_id: Long,//用户的ID
session_id: String,//Session的ID
page_id: Long,//某个页面的ID
action_time: String,//动作的时间点
search_keyword: String,//用户搜索的关键词
click_category_id: Long,//某一个商品品类的ID
click_product_id: Long,//某一个商品的ID
order_category_ids: String,//一次订单中所有品类的ID集合
order_product_ids: String,//一次订单中所有商品的ID集合
pay_category_ids: String,//一次支付中所有品类的ID集合
pay_product_ids: String,//一次支付中所有商品的ID集合
city_id: Long
)//城市 id
品类是指产品的分类,大型电商网站品类分多级,此项目中品类只有一级,不同的公司可能对热门的定义不一样。在这里按照每个品类的点击、下单、支付的量来统计热门品类。
鞋 点击数 下单数 支付数
衣服 点击数 下单数 支付数
电脑 点击数 下单数 支付数
例如,综合排名 = 点击数20%+下单数30%+支付数*50%
本项目需求优化为:先按照点击数排名,靠前的就排名高;如果点击数相同,再比较下单数;下单数再相同,就比较支付数。
1 读取文件,获取原始数据
2 统计品类的点击数量
统计分区前需要将不需要的数据过滤掉(数据清洗)
保留所有的点击数据
对点击数据进行统计
3 统计品类的下单数量
注意:一次可以下单多个类别的商品,(1,2,3,4) => (1,1)(2,1)(3,1)(4,1)
先扁平化,再map
4 统计品类的支付数量,下单行为与支付行为类似
5 对统计结果进行排序,先点击,再下单,最后支付 => Tuple(点击,下单,支付)
(品类ID,点击)Data
(品类ID,下单)Data
(品类ID,支付)Data
最终合成(品类ID,(点击,下单,支付))
join,leftOuterJoin,rightOuterJoin:当左或右无数据时,存在缺陷
fullOuterJoin可行,但连接三个data,数据结构复杂(RDD[(String, (Option[(Option[Int], Option[Int])], Option[Int]))])
使用
6 将结果采集后打印在控制台上
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local").setAppName("HotCategoryTop10")
val sc = new SparkContext(conf)
// TODO 1 读取文件,获取原始数据
val fileDatas: RDD[String] = sc.textFile("data/user_visit_action.txt")
// TODO 2 统计品类的点击数量
// 过滤数据
val clickDatas: RDD[String] = fileDatas.filter {
data => {
val datas: Array[String] = data.split("_")
val ccid: String = datas(6)
ccid != "-1"
}
}
val clickCntDatas: RDD[(String, Int)] = clickDatas.map {
data => {
val datas: Array[String] = data.split("_")
val ccid: String = datas(6)
(ccid, 1)
}
}.reduceByKey(_ + _)
// TODO 3 统计品类的下单数量
// 注意:一次可以下单多个类别的商品,(1,2,3,4) => (1,1)(2,1)(3,1)(4,1)
val orderDatas: RDD[String] = fileDatas.filter {
data => {
val datas: Array[String] = data.split("_")
val ocid: String = datas(8)
ocid != "null"
}
}
val orderCntDatas: RDD[(String, Int)] = orderDatas.flatMap(
data => {
val datas: ArrayOps.ofRef[String] = data.split("_")
val ocid: StringOps = datas(8)
val ocids: ArrayOps.ofRef[String] = ocid.split(",")
ocids.map((_, 1))
}
).reduceByKey(_ + _)
// TODO 4 统计品类的支付数量,支付行为与下单行为类似
val payDatas: RDD[String] = fileDatas.filter(
data => {
val datas: Array[String] = data.split("_")
val pcid: String = datas(10)
pcid != "null"
}
)
val payCntDatas: RDD[(String, Int)] = payDatas.flatMap(
data => {
val datas: ArrayOps.ofRef[String] = data.split("_")
val pcid: StringOps = datas(10)
val pcids: ArrayOps.ofRef[String] = pcid.split(",")
pcids.map((_, 1))
}
).reduceByKey(_ + _)
// TODO 5 对统计结果进行排序,先点击,再下单,最后支付
val ccidCntsDatas: RDD[(String, (Iterable[Int], Iterable[Int], Iterable[Int]))] =
clickCntDatas.cogroup(orderCntDatas,payCntDatas)
val mapDatas: RDD[(String, (Int, Int, Int))] = ccidCntsDatas.map {
case (cid, (clickIter, orderIter, payIter)) => {
var clickCnt = 0
var orderCnt = 0
var payCnt = 0
val iterator1: Iterator[Int] = clickIter.iterator
if (iterator1.hasNext) {
clickCnt = iterator1.next()
}
val iterator2: Iterator[Int] = orderIter.iterator
if (iterator2.hasNext) {
orderCnt = iterator2.next()
}
val iterator3: Iterator[Int] = payIter.iterator
if (iterator3.hasNext) {
payCnt = iterator3.next()
}
(cid, (clickCnt, orderCnt, payCnt))
}
}
val top10: Array[(String, (Int, Int, Int))] = mapDatas.sortBy(_._2,false).take(10)
// TODO 6 将结果采集后打印在控制台上
top10.foreach(println)
sc.stop()
}