请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

老师,您好,在配置pycharm中运行spark程序,对python的版本有要求吗?我用的是3.7,视频中是3.6

正在回答 回答被采纳积分+3

1回答

提问者 weixin_精慕门5061032 2021-01-17 15:12:28

https://img1.sycdn.imooc.com//szimg/6003e2b909f43c9714841047.jpg

执行的是这个代码,是java环境不对吗,我已经配置了Java环境啊

from pyspark import SparkConf, SparkContext


conf = SparkConf().setMaster("local[1]").setAppName("spark1")

sc = SparkContext(conf=conf)


data = [1,2,3,4,5]

disData = sc.parallelize(data)
print(disData.collect())

sc.stop()


0 回复 有任何疑惑可以回复我~
  • 这个对于py的版本有要求的,建议按照课程的版本学习,学完之后你可以再使用自己想要的版本
    回复 有任何疑惑可以回复我~ 2021-01-17 20:19:11
  • 提问者 weixin_精慕门5061032 回复 Michael_PK #2
    我换个python3.6版本,还是出现这个问题,可能不是python版本的
    回复 有任何疑惑可以回复我~ 2021-01-20 15:54:24
  • Michael_PK 回复 提问者 weixin_精慕门5061032 #3
    这个错看起来像是依赖的东西不全呢
    回复 有任何疑惑可以回复我~ 2021-01-20 23:45:06
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信