为什么在 hadoop wordcount reducer 中使用的 sum++ 得出的结果全为 1?

问答 生亦何欢 ⋅ 于 2018-12-24 14:09:01 ⋅ 最后回复由 青牛 2018-12-24 17:45:47 ⋅ 1692 阅读

for(IntWritable val:values){

sum+=val.get();

}

context.write(key,new IntWritable(sum))

我唯一的不同是使用了sum++,考虑到map输出的值都是1,所以每一次迭代都只是sum加一。

但是最后统计结果每个单词出现的次数全为1,我把代码改回 sum+=val.get()之后,结果就正确了,这是为什么呢?

后来尝试sum+=1,结果也全为1

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2018-12-24 17:45:47

    sum++ 对本地变量进行累加 下次sum初始值还是0 所以无论加多少次 只相当于加了一次

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter