采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
只有sqlContext 找不到,其他都能找到,是不是这个得单独添加依赖。
引入是这个样子的,感觉好奇怪,老师,这样对不对?
import org.apache.spark.{SparkConf, SparkContext}
你pom中添加sparksql的依赖没
添加了,已经导入了。只是现在导入的样子是这个样子 import org.apache.spark.{SparkConf, SparkContext} 很奇怪,但是运行时正常的。
正常的,多个类自动放一起了
登录后可查看更多问答,登录/注册
快速转型大数据:Hadoop,Hive,SparkSQL步步为赢
1.6k 6
1.8k 6
1.9k 1
1.2k 21
1.5k 18