我们一般是先用hive分析那些特征比较有代表性,比如某个特征的点击或者转化比较高。然后再确定特征组合
- spark ml ?
- spark 通过 Phoenix 读取 hbase 数据的问题?
- scala 基础 5
-
信息被删除或无权限查看
- 请问 1T 左右的数量 用 MapReduce 跑 job 数设置为多少合适呢?
-
信息被删除或无权限查看
- 请问 1T 左右的数量 用 MapReduce 跑 job 数设置为多少合适呢?
- wordcount 之 stage 划分?
- 请问 1T 左右的数量 用 MapReduce 跑 job 数设置为多少合适呢?
- hbase 插入数据一直卡住的问题?
- hbase 数据插入 阻塞 入库数据入不进去?
- 请问 1T 左右的数量 用 MapReduce 跑 job 数设置为多少合适呢?
- hbase 插入数据一直卡住的问题?
- 用 sparkstreaming 消费kafka的数据,怎么将数据写入到hdfs的输入流,采用追加的方式写入?
- kafka 启动消费者, 一直报这个,请问是个怎么情况,怎么解决?如图