ETL 中优化的一些问题?

问答 AIZero ⋅ 于 2020-09-04 00:01:07 ⋅ 最后回复由 AIZero 2020-09-04 11:23:11 ⋅ 210 阅读
  1. 如果要跑海牛日志一年的数据,自己统计时先将一年的数据拉到本地,通过find命令把log文件放到一个文件夹,然后再把hdfs上传到hdfs上,然后再跑MapReduce。虽然hdfs中没法使用find函数的样子,但这个过程能否全程在hdfs上实现,有什么优化的方法。
  2. 如果我每天的定时任务需要跑最近三个月的日志数据,脚本该如何写才能把最近三个月的log文件汇集到MapReduce的input文件夹。
点赞
成为第一个点赞的人吧 :bowtie:
回复数量: 2
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2020-09-04 00:09:34

    1.mapreduce不就是一个可以并发的大find吗

    2.不用汇集到一个目录里面,使用mr的多目录输入

    FileInputFormat.setInputPaths(job, inputPaths);
  • AIZero
    2020-09-04 11:23:11

    @青牛 好的,我去试试

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter