请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

spark-shell中执行sparkSQL报错:需要Hive支持

spark-shell启动正常图片描述
spark-shell执行spark.sql(“show tables”).show正常
图片描述
执行spark.sql(“create table t(key string, value string)”)报错
图片描述
说是需要hive支持,我将hive-site.xml放入$SPARK_HOME/conf下依然不管用,我也启动了元数据共享nohup hive --service metastore &依然不行

正在回答

1回答

Michael_PK 2020-10-09 14:29:13

你是在服务器执行的是吧。两个事情,一是hivesite要在conf目录下,而是你如果使用了metastore服务,这个服务要正常启动起来,jps可以确认下是否启动成功。这两个的前提都是hivesite要在sparkconf下

0 回复 有任何疑惑可以回复我~
  • 提问者 璀璨年华_ #1
    是我的问题,我使用的是官网编译好的spark,它默认不支持hive,需要自己编译一个就可以了,麻烦老师了
    回复 有任何疑惑可以回复我~ 2020-10-09 18:11:13
  • Michael_PK 回复 提问者 璀璨年华_ #2
    对的,是需要编译加入yarn的支持才可以
    回复 有任何疑惑可以回复我~ 2020-10-09 18:11:43
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信