请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

scala程序无法编译

老师您好,spark streaming测试代码在spark shell里面可以正常运行,但是写成.scala文件,用scalac编译显示error: object apache is not a member of package org。我直接在linux服务器上写的程序,没有安装idea。
import org.apache.spark.streaming.{Seconds, StreamingContext}

object NetworkWordCount {

def main(args: Array[String]): Unit = {
val sc = new SparkConf().setMaster(“local”).setAppName(“NetworkWordCount”)
val ssc = new StreamingContext(sc, Seconds(3))
val lines = ssc.socketTextStream(“hadoopmaster”, 9999)
val words = lines.flatMap(.split(" "))
val wordCounts = words.map(x => (x, 1)).reduceByKey(
+ _)
wordCounts.print()
ssc.start()
ssc.awaitTermination()
}
}

正在回答

1回答

这需要spark相关依赖的支持,你这样光秃秃的一个类,依赖的东西没有啊

0 回复 有任何疑惑可以回复我~
  • 提问者 侧耳倾听17 #1
    这个在linux环境要如何添加依赖,要安装其它软件嘛
    回复 有任何疑惑可以回复我~ 2020-09-03 09:13:28
  • Michael_PK 回复 提问者 侧耳倾听17 #2
    装个开发工具在里面写代码,然后打包运行就行了
    回复 有任何疑惑可以回复我~ 2020-09-03 09:14:19
  • 提问者 侧耳倾听17 #3
    非常感谢!
    回复 有任何疑惑可以回复我~ 2020-09-03 09:18:02
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号