请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

spark-shell 命令指定mysql驱动位置

老师,您好:

        在5-5节使用spark-shell时我跟课程输入指令“./spark-shell --master local[2]”时报mysql驱动找不到,后来在网上查找解决方法时,有人提示指定mysql驱动的位置的话可以解决,逐使用指令“./spark-shell --master local[2] --jars /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar”解决。不太明白的是我已经在 /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/下放了mysql驱动jar包,为什么还要指定位置,是需要在什么地方配置mysql驱动jar包位置么?

正在回答 回答被采纳积分+3

1回答

提问者 慕斯卡4516047 2017-08-11 23:25:08

看了后面的视频,知道了原因。。。。

1 回复 有任何疑惑可以回复我~
  • 你好,请问一下,怎么样才能不加jars /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar 运行spark-shell命令这个问题是在哪一节视频讲的呢?
    回复 有任何疑惑可以回复我~ 2018-04-08 17:33:49
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号