采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
每次启动都要--jars mysql驱动地址,请问老师能有别的配置,比如把mysql驱动包放在spark目录下,而跳过这一步骤吗?
放到spark-default.conf
非常感谢!
直接把mysql驱动包放到 /home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0/jars也可以
登录后可查看更多问答,登录/注册
快速转型大数据:Hadoop,Hive,SparkSQL步步为赢
1.5k 6
1.7k 6
1.9k 1
1.1k 21
1.4k 18