spark 如何实现一个快速的 RDD 中所有的元素相互计算?

问答 七里芬芳 ⋅ 于 2019-03-27 09:51:08 ⋅ 最后回复由 青牛 2019-03-27 14:26:19 ⋅ 2447 阅读

在spark集群中需要实现每个元素与其他元素进行计算,比如
rdd = sc.parallelize(Array('a', 'b', 'c', 'd')),
那么需要相互计算的元素对为
(a, b), (a, c), (a, d), (b, c), (b, d), (c, d)

我知道可以先进行cartesian,然后filter一下,但是对于数据量特别大的时候(比如,10w个),这种方法貌似很慢,所以请问大家知道在spark中有什么好的解决方法呢?

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-03-27 14:26:19

    不慢啊 根据数据划分不同的partition并行啊

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter