如下代码所示:
private lazy val myTestData1 = Seq(
(1, 1),
(1, 2),
(2, 1),
(2, 2),
(3, 1),
(3, 2)
).toDF("a", "b")
可以看到在Spark中Seq可以直接通过toDF函数,变成Spark自己的存储对象DataFrame, 而这个toDF函数本身是不属于Seq的。我想问下这个是怎么做到的?
谢谢解答。
如下代码所示:
private lazy val myTestData1 = Seq(
(1, 1),
(1, 2),
(2, 1),
(2, 2),
(3, 1),
(3, 2)
).toDF("a", "b")
可以看到在Spark中Seq可以直接通过toDF函数,变成Spark自己的存储对象DataFrame, 而这个toDF函数本身是不属于Seq的。我想问下这个是怎么做到的?
谢谢解答。
可以看下源码的构造方法 toDF就是变成表格形式而已 把表格加上表头