Spark 里 RDD 数据怎么拿到 hashmap 中呢?

问答 卢本伟牛X ⋅ 于 2019-01-23 10:43:42 ⋅ 2225 阅读

val sc = new SparkContext(conf)

val rdd01 = sc.textFile("G:/input/a.txt")

val rdd02 = rdd01.map(x=>(x.split("\t")(0),x.split("\t")(1).trim.toInt))

var map2 = new mutable.HashMap[String,Int]()

rdd02.foreach(println(_))

rdd02.foreach(x=>(map2+=(x._1->x._2)))

println(map2)

val rdd03 =rdd02.map(x=>(x._1->x._2))

rdd03.foreach(println(_))

成为第一个点赞的人吧 :bowtie:
回复数量: 0
    暂无评论~~
    • 请注意单词拼写,以及中英文排版,参考此页
    • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
    • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
    • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
    • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
    Ctrl+Enter