airflow 定义 task 调度 spark 离线任务(YARN),有没有办法获取 spark 任务的执行状态?

问答 小龙 ⋅ 于 2019-04-22 09:40:13 ⋅ 最后回复由 青牛 2019-04-22 10:44:48 ⋅ 3153 阅读

我理解的是 task 的执行状态是和 spark-submit 脚本挂钩的,而不是 spark 程序。但是定义 DAG 的时候,我希望是在 spark 程序成功完成的时候再执行下一个 task,而不是sh文件执行成功,请问有办法实现吗?

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-04-22 10:44:48

    这是两个进程之间的交互,仔细理解一下你会发现spark-submit的时候是把作业提交给了集群,集群没有给提供对外控制作业的接口,所以你只能看着它们自动执行,如果想自己控制 你可以看看基于yarn的自定义开发

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter