请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

老师,您好,在配置pycharm中运行spark程序,对python的版本有要求吗?我用的是3.7,视频中是3.6

正在回答 回答被采纳积分+3

插入代码

1回答

提问者 weixin_精慕门5061032 2021-01-17 15:12:28

https://img1.sycdn.imooc.com//szimg/6003e2b909f43c9714841047.jpg

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
执行的是这个代码,是java环境不对吗,我已经配置了Java环境啊
 
from pyspark import SparkConf, SparkContext
 
 
conf = SparkConf().setMaster("local[1]").setAppName("spark1")
 
sc = SparkContext(conf=conf)
 
 
data = [1,2,3,4,5]
 
disData = sc.parallelize(data)
print(disData.collect())
 
sc.stop()


0 回复 有任何疑惑可以回复我~
  • 这个对于py的版本有要求的,建议按照课程的版本学习,学完之后你可以再使用自己想要的版本
    回复 有任何疑惑可以回复我~ 2021-01-17 20:19:11
  • 提问者 weixin_精慕门5061032 回复 Michael_PK #2
    我换个python3.6版本,还是出现这个问题,可能不是python版本的
    回复 有任何疑惑可以回复我~ 2021-01-20 15:54:24
  • Michael_PK 回复 提问者 weixin_精慕门5061032 #3
    这个错看起来像是依赖的东西不全呢
    回复 有任何疑惑可以回复我~ 2021-01-20 23:45:06
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号