这是两个进程之间的交互,仔细理解一下你会发现spark-submit的时候是把作业提交给了集群,集群没有给提供对外控制作业的接口,所以你只能看着它们自动执行,如果想自己控制 你可以看看基于yarn的自定义开发
- airflow 定义 task 调度 spark 离线任务(YARN),有没有办法获取 spark 任务的执行状态?
- 请问我这 pycharm 下的 spark 运行老是打印这行警告日志,咋去掉啊,我到 log4j 都改了还没用?
- spark 程序 在 sc.stop 之后的代码在哪里执行的?怎么执行的?
- spark 中 spark.reducer.maxSizeInFlight 多大合适?
- 如何在 hive 与 pig 中选择?
- spark collect (),当数据量比较大时,卡死怎么解决?
- kafka 同一个消费组里 多个消费者 使用 consumer.assign (topicPartitions);会造成数据重复吗?
- kafka 消费者怎样每次只消费 30 条?
-
信息被删除或无权限查看
- spark 在运行过程中 gc 时间太长 怎么处理?
-
信息被删除或无权限查看
- 停止 spark 时原有 worker 没有成功停止,再启动时又新增了 worker,有什么影响吗?
- spark 框架构建时这算不算错误,警告级别,不影响正常运行吧?
- storm 怎样均衡的处理 kafka 数据?
- storm 怎么调用 python exe 可执行文件?