请问在 Spark 里先对字段一分组,再对字段二分组应该如何实现?

问答 NEMOlv ⋅ 于 2024-02-29 20:01:35 ⋅ 最后回复由 青牛 2024-03-01 00:31:57 ⋅ 165 阅读

假设有这样一个RDD: [String (String, int) ],我想先对第一个String做groupBy,再对第二个String做groupBy。但是实际上是不行的,因为第一次做完groupBy之后,RDD会变成[String iterator(String, int)],此时就无法第二个String做groupBy了。

有什么方法能实现先对字段一分组,再对字段二分组吗?

并且最好能扩展到对字段n-1分组,即先对字段一分组,再对字段二分组,再对字段三分组,一直到字段n-1分组,最后字段n求和

回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2024-03-01 00:31:57

    变成RDD: [String_String, int],用前2个String组合成一个key,然后只进行一次groupBy

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter