kafka connect 做 ETL,会造成数据丢失或重复吗?如果是的话,该怎么解决?

问答 慧有未来 ⋅ 于 2019-09-18 17:51:36 ⋅ 最后回复由 青牛 2019-09-19 08:36:16 ⋅ 1966 阅读

kafka connect做ETL,会造成数据丢失或重复吗?如果是的话,该怎么解决?

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-09-19 08:36:16

    会啊 看你怎么配置了
    数据传输的事务定义通常有以下三种级别:
    最多一次: 消息不会被重复发送,最多被传输一次,但也有可能一次不传输。
    最少一次: 消息不会被漏发送,最少被传输一次,但也有可能被重复传输.
    精确的一次(Exactly once): 不会漏传输也不会重复传输,每个消息都传输被一次而且仅仅被传输一次,这是大家所期望的。
    kafka的
    “精确一次”是这么做的,可以通过将提交分为两个阶段来解决:保存了offset后提交一次,消息处理成功之后再提交一次。但是还有个更简单的做法:将消息的offset和消息被处理后的结果保存在一起。比如用Hadoop ETL处理消息时,将处理后的结果和offset同时保存在HDFS中,这样就能保证消息和offser同时被处理了。

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter