请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

pycharm无法运行spark程序

https://img1.sycdn.imooc.com//szimg/608fc11509147ffa24961402.jpg老师还需要您帮忙看一下这个,我之前spark2.3.0在本机上没有成功编译,显示没配置java_home,因为我这个新电脑没有安装任何java相关的东西。然后我把虚拟机里的编译好的包直接复制到本机上了 ,按照您要求配置好了pythonpath和sparkhome,也把您说的那两个包导进去了,但是运行程序还是报错,我不知道这个问题出在哪了?

正在回答 回答被采纳积分+3

1回答

Michael_PK 2021-05-03 22:10:53

你这么滴操作,你直接下载这个https://www.apache.org/dyn/closer.lua/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz   解压到本地试试。


有可以参考这个帖子:https://coding.imooc.com/learn/questiondetail/y0K5g68BN54Ye2QN.html

0 回复 有任何疑惑可以回复我~
  • 提问者 qq_慕妹4371975 #1
    还是不行,我下载完解压到本地,按照您的说法把路径添加进去然后又把两个包导进去,还是报这个错误 。它一直说在pyspark.zip包底下找不到那几个文件,我把这几个文件的路径也添加进去了但是还是不行,我不知道要怎么解决。。。老师我能加您好友吗?方便沟通一点
    回复 有任何疑惑可以回复我~ 2021-05-04 02:29:40
  • Michael_PK 回复 提问者 qq_慕妹4371975 #2
    你的路径不要带中文,不要带空格
    回复 有任何疑惑可以回复我~ 2021-05-06 14:33:00
  • 慕雪3119260 回复 提问者 qq_慕妹4371975 #3
    这个问题解决了吗?
    回复 有任何疑惑可以回复我~ 2022-12-07 11:54:58
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信