请问 Spark 如何利用 GPU 资源计算?

问答 ⋅ 于 2019-05-08 13:14:55 ⋅ 最后回复由 青牛 2019-05-10 20:51:04 ⋅ 1595 阅读

要做毕设,要优化一个算法(不是机器学习相关的),这个算法本来只是利用Spark平台,导师建议把Spark和GPU结合起来,让Spark调用GPU资源进行计算,但是最近几天查了很多资料,方法似乎有很多,但是感觉可行的太少,目前情况是这样的:

原来这个算法是用python的pyspark实现的,所以我希望能找到相应的python库可以实现Spark调用GPU资源
找到一个numba+pyspark的,但是资料太少了,只有一个ppt,自己在运行ppt上代码时,出现了no module named numba.serialize的错误,怀疑是版本问题?
求问大家有没有Spark利用GPU资源的相应的包,最好是python的,因为可能没时间移植到别的语言了,已经实现的这个算法就是python的pyspark写的

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 国内首批大数据从业者,就职于金山,担任大数据团队核心研发工程师
    2019-05-10 20:51:04

    这个场景必然用TensorFlow啊

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter