请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

spark在本机上的编译问题

输入正文https://img1.sycdn.imooc.com//szimg/608ea2b309ea1f5700000000.jpg老师,我在本机上编译spark,但是总是报错,说java_home没有配置,要怎么修改呢?因为希望老师可以回复一下,因为要在本机的pycharm里面导入spark

正在回答 回答被采纳积分+3

1回答

Michael_PK 2021-05-02 22:09:08

你需要在你的机器上先按照JDK,然后在环境变量中配置JAVA_HOME就可以。

如果你不想编译,也可以直接到spark官网下载一个与你的hadoop对接的spark就行

0 回复 有任何疑惑可以回复我~
  • 提问者 qq_慕妹4371975 #1
    好的,我直接把虚拟机中您解压好的那个包拖拽到本机可以吗?
    回复 有任何疑惑可以回复我~ 2021-05-03 15:48:20
  • 提问者 qq_慕妹4371975 #2
    我把虚拟机里编译好的spark-2.3.0-bin-2.6.0-cdh5.7.0拖拽到本机了 ,不知道是否可以 ,但是按照您说的在pycharm里把其他东西配置好后,运行程序依然报错,我刚刚把截图发到另一个问题了,您可以看一下
    回复 有任何疑惑可以回复我~ 2021-05-03 17:44:23
  • Michael_PK 回复 提问者 qq_慕妹4371975 #3
    可以的呢
    回复 有任何疑惑可以回复我~ 2021-05-03 22:05:04
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信