老师,您好:
在5-5节使用spark-shell时我跟课程输入指令“./spark-shell --master local[2]”时报mysql驱动找不到,后来在网上查找解决方法时,有人提示指定mysql驱动的位置的话可以解决,逐使用指令“./spark-shell --master local[2] --jars /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar”解决。不太明白的是我已经在 /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/下放了mysql驱动jar包,为什么还要指定位置,是需要在什么地方配置mysql驱动jar包位置么?