spark 数据插入 es,es 压力过大?

问答 tongsq ⋅ 于 2021-06-10 09:11:39 ⋅ 最后回复由 tongsq 2021-06-10 13:33:44 ⋅ 1416 阅读

file
老师
这个问题是es压力太大了么
两千万条数据左右,spark批量插入es ,es索引5个主分片,2个副分片。
有什么优化措施么
还是要将每次插入的数据量减少些

成为第一个点赞的人吧 :bowtie:
回复数量: 5
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2021-06-10 09:53:51

    加分片,超时时间设置长点

  • 犀牛
    2021-06-10 13:01:46

    尝试一下关闭索引同步,写完再打开

  • 犀牛
    2021-06-10 13:24:48

    在es里关闭索引同步,副本也可以先关掉,程序写完再打开。

  • tongsq
    2021-06-10 13:31:27

    @犀牛 好的犀牛大哥,我试一下

  • tongsq
    2021-06-10 13:33:44

    @犀牛 我用了个笨方法,每批插入的数据减少了些,就好多了,我在调下参数

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter