海汼部落
  • 首页
  • 课程
  • 实战
  • 云平台
  • 部落
  • 公告
  • 分享
  • 问答
    登 录 注册
创始人

青牛

第 12 位会员

449 关注者
2251 评论
308 话题

  • WeChat
  • Website
  • 公司
  • 城市
  • Ta 发布的话题
  • Ta 发表的回复
  • Ta 关注的用户
  • Ta 赞过的话题
  1. 个人中心
  2. Ta 发表的回复(2251)
  • MapReduce 编程系列

    伪代码

    Map<String,List<Integer>> map = new HashMap<String,ArrayList<Integer>>();
    if(value > max){
    max=value
    List mapList = map.get("max")
    map_tmp = mapList[0]
    if(max == map_tmp){
    mapList.append(max)
    }else{
    List<Integer> list = new ArrayLIst<Integer>()
    list.append(max)
    map.put("max",list)
    }
    }
  • 后台关于异步处理

    @小东 你可以用kafka,redis,mysql当用的队列中间件,或者干脆用个list。控制好锁和多个消费程序的队列阻塞问题就行,比如mysql可以用select * from table where type=1 for update去做,在事物中锁住type索引字段,且不会影响插入操作

  • 虚拟机安装总是出这个问题

    是不是你的虚拟机给的硬盘空间太小了,或者你的电脑上的硬盘没空间了,学centos可以不用desktop,用命令行操作就可以了,选最小安装minimal就可以了

  • 后台关于异步处理

    后台加个任务队列吧,用消费者模式去设计一套程序
    前端受理成功只是向任务队列里成功添加了任务,处理程序再从队列里拿任务去处理

  • 用 java 写 spark 的聚合函数格式是什么

    @陌二狗 我角得你现在比以前帅多了

  • 用 java 写 spark 的聚合函数格式是什么

    @陌二狗 有进步啊,都能看源码了

  • 用 java 写 spark 的聚合函数格式是什么

    @陌二狗 你有代码写错了,前面的单引号放到id后面

    file

  • 用 java 写 spark 的聚合函数格式是什么

    @陌二狗 方法后面要给,有几个泛型,规定返回值和传入值,去看一下教程的例子

  • 用 java 写 spark 的聚合函数格式是什么

    java的spark的api有function类,pair rdd对应的是function2
    包地址
    import org.apache.spark.api.java.function.Function;
    import org.apache.spark.api.java.function.Function2;
    社区里的spark教程都是用java写的
    http://hainiubl.com/topics/202

  • 字段变化的表在大数据中如何存储 ?

    你的需求是宽列存储,所以用hbase比较合适,对数据的分析用SQL形式的比较多,hbase的数据存储在hdfs上所以可以读取底层的hfile文件转生hive用的文件就可以实现SQL查询了,所以用数据量大又是宽表结构就用hbase吧
    当然hbase还有impala的解决方案

  • > load data local inpath '/opt/hive/student.txt' into table db_hivetest.student; 报错是为什么?

    @姚明臣 hive存储用的是hdfs,所以你必须要保证你的hdfs没问题的基础上再去弄hive

  • > load data local inpath '/opt/hive/student.txt' into table db_hivetest.student; 报错是为什么?

    看异常是你的datanode报错了,没有正在运行的datanode,或者你的文件副本数配置大于datanode的节点数也会报类似的异常

  • org.apache.hadoop.hive.metastore.HiveMetaException: Failed to get schema version.

    你要先启动hive的metastore服务,或者你的配置文件 hive-site.xml 里去掉metastore的连接信息,让hive的client直接连接mysql。
    你可以参考这个帖子:http://hainiubl.com/topics/103

  • 海牛部落 Hadoop 系列教程(四):编译 hadoop 源码

    @JeeLearner 亲,那里不明白的可以去问答区提问

  • 如何将 pyspark.sql.dataframe.DataFrame 类型 转换为 list () list [LabelePoint ()] 用的 python

    @healcool 我能刚到的办法就是把DataFrame转成rdd,然后在map里转一下吧

  • «
  • 1
  • 2
  • ...
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • »

为技术学习者提供一个动手实战、分享创造、结识伙伴、协同互助的平台。    

  京公网安备 11011402010672号        京ICP备17041118号-2