Hadoop 存放文件的格式是什么?

问答 alan ⋅ 于 2019-05-16 13:58:42 ⋅ 最后回复由 青牛 2019-05-16 16:54:48 ⋅ 87 阅读

想要学习Hadoop并且也看过了一些教程,但是还是没弄明白企业级Hadoop是如何存放数据的。网上的教程基本是以csv为例子,直接放到hdfs,然后hive查询给出结果之类的。

那么企业级数据是怎么存放在Hadoop的呢,也是csv直接扔到hdfs么,还是别的格式类似Parquet然后用Spark SQL来处理?或者是把原始csv,json,xml什么的直接导入HBase?

乱了乱了,希望有经验的过来人指点,谢谢!

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-05-16 16:54:48

    企业中一般使用lzo文件

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter