SparkStreaming 消费 kafka 数据,怎样解决大量初始化数据的问题?

问答 七里芬芳 ⋅ 于 2019-03-27 09:55:41 ⋅ 最后回复由 青牛 2019-03-27 12:20:20 ⋅ 2209 阅读

目前遇到一个问题,SparkStreaming消费Kafka数据的时候,当有大量初始化数据,并且这些数据涉及大量任务,那么这初始化的大量任务的执行会阻塞实时从Kafka发送过来的任务(因为当前任务的执行优化的还不够快,所以当初始化发送好几万的任务的时候造成非常明显的阻塞),请问这样的初始化任务执行的问题可以怎么解决,谢谢?

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-03-27 12:20:19

    没啥关系吧 你的初始化不就是一次吗 难道天天要初始化吗 只要你的消费速度足够快就可以了

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter