请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

​运行OffsetApp03这个类出现异常

运行OffsetApp03这个类的时候出现

Exception in thread "main" java.lang.NoSuchMethodError: io.netty.buffer.PooledByteBufAllocator.defaultUseCacheForAllThreads()Z
at org.apache.spark.network.util.NettyUtils.createPooledByteBufAllocator(NettyUtils.java:168)
at org.apache.spark.network.util.NettyUtils.getSharedPooledByteBufAllocator(NettyUtils.java:138)
at org.apache.spark.network.server.TransportServer.<init>(TransportServer.java:74)
at org.apache.spark.network.TransportContext.createServer(TransportContext.java:157)
at org.apache.spark.rpc.netty.NettyRpcEnv.startServer(NettyRpcEnv.scala:125)
at org.apache.spark.rpc.netty.NettyRpcEnvFactory.$anonfun$create$1(NettyRpcEnv.scala:489)
at org.apache.spark.rpc.netty.NettyRpcEnvFactory.$anonfun$create$1$adapted(NettyRpcEnv.scala:488)
at org.apache.spark.util.Utils$.$anonfun$startServiceOnPort$2(Utils.scala:2256)
at scala.collection.immutable.Range.foreach$mVc$sp(Range.scala:158)
at org.apache.spark.util.Utils$.startServiceOnPort(Utils.scala:2248)
at org.apache.spark.rpc.netty.NettyRpcEnvFactory.create(NettyRpcEnv.scala:493)
at org.apache.spark.rpc.RpcEnv$.create(RpcEnv.scala:57)
at org.apache.spark.SparkEnv$.create(SparkEnv.scala:266)
at org.apache.spark.SparkEnv$.createDriverEnv(SparkEnv.scala:189)
at org.apache.spark.SparkContext.createSparkEnv(SparkContext.scala:267)
at org.apache.spark.SparkContext.<init>(SparkContext.scala:442)
at org.apache.spark.streaming.StreamingContext$.createNewSparkContext(StreamingContext.scala:851)
at org.apache.spark.streaming.StreamingContext.<init>(StreamingContext.scala:85)
at com.imooc.bigdata.offset.OffsetApp03$.main(OffsetApp03.scala:22)
at com.imooc.bigdata.offset.OffsetApp03.main(OffsetApp03.scala)
Disconnected from the target VM, address: '127.0.0.1:64956', transport: 'socket'

貌似是显示是netty的版本冲突,但我搜遍了项目里的代码貌似也没有netty相关的pom包,您的代码里有涉及netty的东西吗?(我的Kafka已能正常启动,Kafka的IP和端口也没有写错,kafka里也有my-replicated-topic这个topic)请问是什么原因呢?

https://img1.sycdn.imooc.com//szimg/5fef58ee097ce93514340871.jpg

正在回答 回答被采纳积分+3

2回答

提问者 BillyWebber 2021-01-02 17:11:06

exclude掉对应的pom文件以后依旧是报这个错

https://img1.sycdn.imooc.com//szimg/5ff038a6092bc9bb15001022.jpg




0 回复 有任何疑惑可以回复我~
Michael_PK 2021-01-02 05:58:36

你这截图都没有error没啥问题。就是netty上了。netty肯定是被动依赖,不是pom里面直接写的,而是pom里面写的依赖中依赖的netty。pom文件中右侧试图中能看到谁引用了netty,找到后,exclude掉,然后在手工加到pom。这是Maven的基本知识点

0 回复 有任何疑惑可以回复我~
  • 提问者 BillyWebber #1
    那您提供的课程代码不就有问题了?我现在是直接运行你的课程代码,我看了一下你的HBASE的pom文件肯定会和netty依赖上的,你把hbase里面的netty去掉,hbase还能正常使用?
    回复 有任何疑惑可以回复我~ 2021-01-02 16:59:31
  • 提问者 BillyWebber #2
    而且我现在根据它提示的nettyUtil索引到的pom文件exclude掉对应的netty依旧是报这个错,这应该怎么解决呢?(exclude的截图已补上,hbase和spark的exclude也试过了)
    回复 有任何疑惑可以回复我~ 2021-01-02 17:08:47
  • Michael_PK 回复 提问者 BillyWebber #3
    你把你的pom贴出来看看
    回复 有任何疑惑可以回复我~ 2021-01-02 20:27:17
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信