pk哥 我看你视频 下面的代码 也没有 连接 hive 的一些配置 它是怎样 连接到 hive的
而且还 在代码里 经过业务逻辑后 还能把数据 落地到 hive 里 ???
package com.imooc.bigdata.chapter06
import java.util.Properties
import org.apache.spark.sql.SparkSession
object HiveSourceApp {
def main(args: Array[String]): Unit = {
// 如果你想使用Spark来访问Hive的时候,一定需要开启Hive的支持
val spark: SparkSession = SparkSession.builder().master(“local”).appName(“HiveSourceApp”)
.enableHiveSupport() //切记:一定要开启
.getOrCreate()
// 走的就是连接 default数据库中的pk表,如果你是其他数据库的,那么也采用类似的写法即可
spark.table(“default.pk”).show()
spark.stop()
}
}