采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
val lines = ssc.textFileStream("file:///E:/idea_workspace/spark_stream/datas/")val result = lines.flatMap(_.split(" ")).map((_,1)).reduceByKey(_ + _)result.print()ssc.start()ssc.awaitTermination()
仔细听这个视频,为什么没数据我讲解过
刚刚看到就问了。。。,现在知道了,必须要以流的形式写入,才可以,感谢老师
处理文件系统的数据一定要注意时间
非常感谢!
感觉要新写一个文件,将文件复制进文件夹才可以,已有的文件复制没成功O(∩_∩)O
对的,要文件时间比启动时间晚才行
登录后可查看更多问答,登录/注册
Flume+Kafka+Spark Streaming 构建通用实时流处理平台
1.7k 89
1.1k 14
2.3k 13
1.7k 12
2.4k 12