采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
问题补充(选填):请详细描述你的问题,贴出相关代码或截图,并告知你的操作步骤
已解决 按照老师说的 把mysql驱动拷贝到spark中的jar文件夹中就好了 遇到这个问题的同学可以试一试 谢谢大家的回答了
http://pan.baidu.com/s/1pKSxhSv
启动的脚本在这里 太多了传不上来 多谢大家帮助!
确实会有点问题,启动第一个作业时没问题,启动第二个就有问题了,脚本:spark-shell --master spark://hadoop001:7077,但是即使有异常也会启动成功。
是启动成功了 但是不能执行wordcount的程序
把启动的脚本也一起补充下
整个都截下吧 这样看不出
谢了兄弟 明天给你截个完整的
登录后可查看更多问答,登录/注册
快速转型大数据:Hadoop,Hive,SparkSQL步步为赢
1.6k 6
1.8k 6
1.9k 1
1.2k 21
1.5k 18