在 spark 中,Seq 有个 toDF 方法?

问答 秋意浓 ⋅ 于 2019-04-29 16:47:17 ⋅ 最后回复由 青牛 2019-04-29 17:19:09 ⋅ 3879 阅读

如下代码所示:

private lazy val myTestData1 = Seq(
(1, 1),
(1, 2),
(2, 1),
(2, 2),
(3, 1),
(3, 2)
).toDF("a", "b")
可以看到在Spark中Seq可以直接通过toDF函数,变成Spark自己的存储对象DataFrame, 而这个toDF函数本身是不属于Seq的。我想问下这个是怎么做到的?

谢谢解答。

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-04-29 17:19:09

    可以看下源码的构造方法 toDF就是变成表格形式而已 把表格加上表头

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter