目前遇到一个问题,SparkStreaming消费Kafka数据的时候,当有大量初始化数据,并且这些数据涉及大量任务,那么这初始化的大量任务的执行会阻塞实时从Kafka发送过来的任务(因为当前任务的执行优化的还不够快,所以当初始化发送好几万的任务的时候造成非常明显的阻塞),请问这样的初始化任务执行的问题可以怎么解决,谢谢?
目前遇到一个问题,SparkStreaming消费Kafka数据的时候,当有大量初始化数据,并且这些数据涉及大量任务,那么这初始化的大量任务的执行会阻塞实时从Kafka发送过来的任务(因为当前任务的执行优化的还不够快,所以当初始化发送好几万的任务的时候造成非常明显的阻塞),请问这样的初始化任务执行的问题可以怎么解决,谢谢?
没啥关系吧 你的初始化不就是一次吗 难道天天要初始化吗 只要你的消费速度足够快就可以了