采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师还需要您帮忙看一下这个,我之前spark2.3.0在本机上没有成功编译,显示没配置java_home,因为我这个新电脑没有安装任何java相关的东西。然后我把虚拟机里的编译好的包直接复制到本机上了 ,按照您要求配置好了pythonpath和sparkhome,也把您说的那两个包导进去了,但是运行程序还是报错,我不知道这个问题出在哪了?
你这么滴操作,你直接下载这个https://www.apache.org/dyn/closer.lua/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz 解压到本地试试。
有可以参考这个帖子:https://coding.imooc.com/learn/questiondetail/y0K5g68BN54Ye2QN.html
还是不行,我下载完解压到本地,按照您的说法把路径添加进去然后又把两个包导进去,还是报这个错误 。它一直说在pyspark.zip包底下找不到那几个文件,我把这几个文件的路径也添加进去了但是还是不行,我不知道要怎么解决。。。老师我能加您好友吗?方便沟通一点
你的路径不要带中文,不要带空格
这个问题解决了吗?
登录后可查看更多问答,登录/注册
使用Python3对Spark应用程序进行开发调优,掌握Azkaban任务调度
1.3k 16
1.1k 15
1.0k 14
1.0k 12
2.3k 11