spark 读取 MongoDB,进行计算,MongoDB 游标超时如何解决?

问答 生亦何欢 ⋅ 于 2019-01-17 11:03:37 ⋅ 最后回复由 青牛 2019-01-19 14:46:52 ⋅ 3047 阅读

最近在单机情况下,发现spark在读取MongoDB进行计算的时候,MongoDB游标老是超时。网上看了下解决方案。

1.设置MongoDB的游标超时时间,但是貌似时间设置过长,会导致oom的情况发生。

2.读取MongoDB之后马上cache rdd,然后action存入本地内存。但是发现还是会执行时间过长,没等count操作执行完,就报游标not found。我猜测是不是因为启动的时候几个task已经连接MongoDB,游标一直占用,再次使用的时候,已经超过10分钟,然后直接超时了?

不知道如何解决。。。?

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-01-19 14:46:52

    除了你说的两种方法,还有两种方法
    1、 find() 时传入 timeout=False 来禁用 10 分钟超时
    2、find(match).batchSize(10000) 设置每次查出来一个batchSize 保证这个batchSize的数据spark 10分钟能处理完 这样spark就会在10分钟内继续连接db而不会超时了

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter