1000 节点的大数据集群 (hadoop,spark) 需要做哪些优化?

问答 咻咻 ⋅ 于 2019-11-22 17:45:51 ⋅ 最后回复由 青牛 2019-11-25 12:43:53 ⋅ 50 阅读

1000节点的大数据集群(hadoop,spark)需要做哪些优化?

1.整体集群组件架构大方向上的优化和设计?

2.hdfs,yarn,zookeeper重要指标的调参?

3.你在大集群使用,运维,优化中遇到的大坑有啥?

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-11-25 12:43:53

    1、要看承载啥业务,比如空集群 那你优化它有啥用
    2、还是要看具体业务,没有最优的系统,只有符合业务的系统
    3、大坑太多,其中最核心的坑就是不知道自己不知道

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter