Structured Streaming 如何完成数据处理呢?

问答 滴磨成觞 ⋅ 于 2019-08-05 17:04:22 ⋅ 最后回复由 青牛 2019-08-05 17:34:15 ⋅ 1474 阅读

场景: Structured Streaming + kafka + maxwell, 处理mysql-binlog的实时流数据.
通过代码kafka_df = spark.readStream \
.format("kafka") \
.option("kafka.bootstrap.servers", "spark-kafka:9092") \
.option("subscribe", "streaming").load
得到结构为 [key#7, value#8, topic#9, partition#10, offset#11L, timestamp#12, timestampType#13] 的dataframe, 但是我想要的数据时value, value是一个json串

我谷歌百度硬是搜不到相关的python写法, 现在想要达到的目的就是把json提升到第一级, 然后通过推断得到字段然后用watermarking做一下数据处理就完事了.
但是我是个新手, 不知道如何用python过滤, 还望有大佬能帮忙解答一下

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-08-05 17:34:15

    用正则表达式过滤把 了解一下

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter