按照教程配置好python3.5+spark2.3.1之后安装了pyspark模块
然后复制了网上的代码:
import pyspark
from pyspark import SparkContext
from pyspark import SparkConf
conf = SparkConf().setAppName('project1').setMaster('local')
sc = SparkContext.getOrCreate(conf)
用pycharm运行就一直没有运行结束,用jupyter notebook,也一直会显示“*”
请问是什么原因导致的,该怎么解决?