关于 spark 写 hbase 用 bulkload 方式的问题?

问答 魏超 ⋅ 于 2018-07-03 11:38:16 ⋅ 最后回复由 魏超 2018-07-04 09:48:24 ⋅ 4856 阅读

各位大佬
file
我报出错误如下
java.io.IOException: Added a key not lexically larger than previous. Current cell = 11000031219513/info:csd/1530512610263/Put/vlen=15/seqid=0, lastCell = 11000031219513/info:sfzh/1530512610263/Put/vlen=18/seqid=0
我用的是跟你一样的方法 sortbykey 排序,数据量是5000w

附言 0  ·  2018-07-03 11:39:11

而且这是hbase的数据查询出来再存储到另一张表,不存在数据重复的情况

成为第一个点赞的人吧 :bowtie:
回复数量: 2
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2018-07-04 01:26:14

    看看你输出的key是不是有问题,报错信息是你的文件没排序对

  • 魏超
    2018-07-04 09:48:24

    @青牛 我这个是用spark读取hbase的数据 rowkey也没变 插入到另一个表中的 ,我感觉应该不存在rowkey重复的情况吧!

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter