wordcount 之 stage 划分?

问答 xiaolin93 ⋅ 于 2018-02-08 16:33:19 ⋅ 最后回复由 xiaolin93 2018-02-08 17:58:22 ⋅ 2993 阅读

val spark = SparkSession
.builder()
.master("local")
.appName("testtt")
.getOrCreate()
val path ="C:/1/a.txt"
val sc = spark.sparkContext
val c: Array[(String, Int)] = sc.textFile(path)
.flatMap(.split(" "))
.map(x=>(x,1))
.reduceByKey(
+ _)
.collect()
这个程序为什么stage的划分跟书上的不一样,reduceByKey前面的不应该跟reduceByKey划分在一起吗?原理上说最后一个rdd划分一个stage,然后如果遇到宽依赖划分新的stage吗,但是看起来不一样
file

回复数量: 2
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2018-02-08 16:59:39

    你map之前不都是没有产生宽依赖吗,你的textFile->flatMap->map在一个节点上就可以完成,reduceByKey是聚合操作,也就是说所有前置节点的数据都会shuffle到一个节点上做聚合操作。最后一个rdd产不产生stage要看是不是像reduceByKey产生宽依赖的聚合操作,如果不是聚合操作就不重新划分stage。
    你看的那个书啊,不会是骗子王家林的吧

  • xiaolin93
    2018-02-08 17:58:22

    @青牛 能不能帮忙看看这个连接里面的案例为什么跟您解释的不一样
    https://www.cnblogs.com/bonelee/p/6039469.html

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter