超大数据量(上 T 级纯数据千亿以上条)使用 Solr 引擎是否可行?

问答 小鱼 ⋅ 于 2018-04-17 15:17:26 ⋅ 最后回复由 小鱼 2018-04-25 10:54:42 ⋅ 5569 阅读

这种超大数据量使用solr作为索引查询不知道有何难点,如果行速度不知道如何?

如果不行,不知道有没有其他方案?

回复数量: 3
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2018-04-17 18:29:32

    solr可以分布式所以这个数据量是没有问题的,但是高并发情况下速度可能会比较慢。

  • ling775000
    2018-04-25 10:53:26

    建议使用hbase+solr 做hbase二级缓存,存储放在hbase里,查询索引建在solr里,能实现海量数据高并发快速查询。

  • 小鱼
    2018-04-25 10:54:42

    @ling775000 谢谢

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter