海汼部落
  • 首页
  • 课程
  • 实战
  • 云平台
  • 部落
  • 公告
  • 分享
  • 问答
    登 录 注册
创始人

青牛

第 12 位会员

449 关注者
2251 评论
308 话题

  • WeChat
  • Website
  • 公司
  • 城市
  • Ta 发布的话题
  • Ta 发表的回复
  • Ta 关注的用户
  • Ta 赞过的话题
  1. 个人中心
  2. Ta 发表的回复(2251)
  • 同一个 spark 项目中可以混用 python 和 scala 吗,有没有尝试过的大佬来交流下?

    可以 没啥影响 不同语言的rdd可以互相转换

  • 有没有大佬帮我看一下,为什么我这么写了 table 中没有数据显示啊,本人萌新一枚,求教~?

    不太懂js

  • scala 是否有 spring cloud 套件?比如 scala 版本的 eurake,fegin 这些?

    为啥要用scala做rpc,java不好吗

  • 在 Spark 的 MLlib 中,不同的 distributed matrix 提供的计算接口为什么不一致呢?

    因为spark默认的存储是存储大量数据,数据结构和算法严格绑定,这样计算速度就会更快,会有更多的优化空间,RowMatrix和IndexRowMatrix和computeSVD强绑定,CoordinateMatrix和BlockMatrix也可以通过扩展接口自己来写

  • yarn 是什么?

    Yarn 的全称是 Yet Another Resource Negotiator意思是“另一种资源调度器”,为什么要叫另一种呢?肯定是之前的那种不好,资源调度的理解是负责资源管理和调度,什么是资源CPU,内存
    几个核心概念:
    1、容器(Container)这个东西是 我们可以简单理解为一个虚拟机。
    2、ResourceManager,整个系统有且只有一个 RM ,来负责资源的调度
    3、ApplicationMaster也叫ap, Client 提交一个任务的 时候,就会新建ap。ap 去与 RM申请创建一个或多个容器,然后在容器里进行分布式计算。
    4、NodeManager 是 ResourceManager 在每台机器的上代理,监控他们的资源使用情况(cpu,内存,磁盘及网络等),以及向 RM报告使用信息。

  • kafka 为什么要实现自己的 channel?

    channel是一个逻辑结构,一般是做资源或任务隔离,你可以理解为一个特殊的通道,但是在连接kafka的时候每个人写的接入方式不一样,导致了很多性能上的问题,所以kafka自己实现了通用的高性能的channel,使用的时候只需要配置一下就可以了,同时它充分考虑了利用kafka的特性进行性能上的优化,使接入的门槛降低,对开发者很有利。

  • 在 spark 集群上部署 python 环境时,是不是每一台机器都要手动 install 第三方模块?

    可以统一打包一个环境放在每一台spark机器上 设置一下python的路径就行了

  • python 中如何隐藏 cmd 返回的提示?

    import logging
    logger.setLevel(logging.ERROR)

  • Python 将字符串写入文件时出现问题,应该怎么解决?

    把代码发一些看看

  • 在 scala 中 Future [Try [T]] 与 Try [Future [T]] 有什么区别?

    [Future[T]] 保证了会返回一个T对象,所以说Future[Try[T]]也是一样的道理,即使Try失败了 也一定返回一个T,但是Try[T], 一定会返回成功或是失败,当然Future对象保证了这两个过程都是异步的

  • zookeeper 客户端报以下错误,是什么原因导致?

    zk的服务端开启了sasl验证 客户端连接的时候需要用户名和密码 或是认证文件

  • 怎么数据库建立表示一直出现 can't create table (errno: 150) 错误?

    外键上面的字段如果不是主键 一定要要建索引

  • 怎么数据库建立表示一直出现 can't create table (errno: 150) 错误?

    1、确实mysql是innodb的引擎
    2、外键必须要建立索引,或者是一个primary key , 你的外键基本上都没有建立索引,所以会报错

  • zookeeper 客户端报以下错误,是什么原因导致?

    服务端开启了sasl认证,客户端连接的时候需要指定认证的文件,用户名和密码

  • flink 消费 kafka,保证数据不丢失且只消费一次语义,也要像 sparkstreaming 一样手动管理 offset 吗?

    好像严格保证只消费一次的都需要自定义处理,没有现成的办法

  • «
  • 1
  • 2
  • ...
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • ...
  • 145
  • 146
  • »

为技术学习者提供一个动手实战、分享创造、结识伙伴、协同互助的平台。    

  京公网安备 11011402010672号        京ICP备17041118号-2