请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

1.11.2版本编译报错,flink-hadoop-fs

回答1 浏览159 2020-10-09 15:03:21

按课程里方式下载flink1.11.2源码编译报错,一部分问题包都安装解决了。剩下一个flink-hadoop-fs依赖的还不行。报错:[ERROR] Failed to execute goal on project flink-hadoop-fs: Could not resolve dependencies for project org.apache.flink:flink-hadoop-fs:jar:1.11.2: The following artifacts could not be resolved: org.apache.hadoop:hadoop-hdfs:jar:tests:2.6.0-cdh5.12.1, org.apache.hadoop:hadoop-common:jar:tests:2.6.0-cdh5.12.1: Failure to find org.apache.hadoop:hadoop-hdfs:jar:tests:2.6.0-cdh5.12.1 in https://repo.maven.apache.org/maven2 was cached in the local repository, resolution will not be reattempted until the update interval of central has elapsed or updates are forced

添加回答

已采纳回答

pom里面添加cdh的依赖仓库

2020-10-09 15:19:00
  • 提问者 蒙小西 #1
    非常感谢!
    2020-10-09 15:27:20

新一代大数据计算引擎 Flink从入门到实战 (热点内容更新)

难度入门
时长21小时
人数872
好评度98.7%

入行或转型大数据新姿势,多语言系统化讲解,极速入门Flink

讲师

Michael_PK 全栈工程师

八年互联网公司一线研发经验,担任大数据架构师。 主要从事基于Spark/Flink为核心打造的大数据公有云、私有云数据平台产品的研发。 改造过Hadoop、Spark等框架的源码为云平台提供更高的执行性能。 集群规模过万,有丰富的大数据项目实战经验以及授课经验(授课数千小时,深受学员好评)。

意见反馈 帮助中心 APP下载
官方微信