关于 sparkstreaming 实时日志去重,怎么实现俩个 Dstream 去重?

问答 小鱼 ⋅ 于 2018-05-16 17:08:18 ⋅ 最后回复由 青牛 2018-05-17 23:09:27 ⋅ 5287 阅读

现在是基于spark streaming 窗口的操作,10s 第一个批次传入数据

zhu01,bei01,20180516144035

zhu02,bei02,20180516144130

zhu03,bei03,20180516144235

20s 第二个批次

zhu01,bei01,20180516144035

zhu04,bei04,20180516144240

zhu05,bei05,20180516144255

zhu02,bei02,20180516144130

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2018-05-17 23:09:27

    使用updateState记录对象状态,以用来判断新老数据,参看这里的http://www.hainiubl.com/topics/197例子 updateStateByKey_last_update

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter