为什么在数据量很大时(TB 以上)需要利用 hadoop 系统。?

问答 江厌离 ⋅ 于 2019-10-23 16:04:40 ⋅ 最后回复由 青牛 2019-10-23 17:44:13 ⋅ 1335 阅读

求教

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-10-23 17:44:13

    数据量上TB以后 传统的数据集性能达到了瓶颈 只能靠扩充硬件来完成很多数据仓库的查询 而且查询速度慢 如果多人共用的话很更慢 ,垂直扩展硬件是有局限性的,比如硬盘由1t缓成2t,但是很快内存不够了128g少了 那就得上256g 但是很快主板插满了 不支持更大了 所以再大的数据量已经不能支持了,
    hadoop系统的好处可以线性增加机器 而且是廉价的机器 成本很低 也能完成传统数据仓库的查询和统计,费用低,硬件便宜

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter