请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

编译报错了

Building with...

+ echo -e '$ /home/hadoop/source/spark-2.1.0/build/mvn' -T 1C clean package -DskipTests -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0 '-X\n'

$ /home/hadoop/source/spark-2.1.0/build/mvn -T 1C clean package -DskipTests -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0 -X


+ /home/hadoop/source/spark-2.1.0/build/mvn -T 1C clean package -DskipTests -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0 -X

exec: curl --progress-bar -L https://www.apache.org/dyn/closer.lua?action=download&filename=/maven/maven-3/3.3.9/binaries/apache-maven-3.3.9-bin.tar.gz

curl: (35) SSL connect error


gzip: stdin: unexpected end of file

tar: Child returned status 1

tar: Error is not recoverable: exiting now

Using `mvn` from path: /home/hadoop/source/spark-2.1.0/build/apache-maven-3.3.9/bin/mvn

/home/hadoop/source/spark-2.1.0/build/mvn: line 161: /home/hadoop/source/spark-2.1.0/build/apache-maven-3.3.9/bin/mvn: 没有那个文件或目录


正在回答 回答被采纳积分+3

2回答

Michael_PK 2018-02-16 14:04:03

你这个错好像是去下载maven了

0 回复 有任何疑惑可以回复我~
  • 提问者 慕函数2082699 #1
    我理解一下啊,
    1、使用make_distribute.sh是不是一定要用自己配的maven,如果自己没有配maven能从Spark_HOME/dev/mvn中使用Spark内置的maven吗?
    2、我看到执行过程中要Scala的version,我想知道Spark编译中需要Scala吗?不安装Scala难道就不能编译Spark吗?
    回复 有任何疑惑可以回复我~ 2018-02-16 14:17:29
  • Michael_PK 回复 提问者 慕函数2082699 #2
    1)不一定需要maven,如果网络好的话,2)scala是否需要你可以测试下,我机器都装有scala
    回复 有任何疑惑可以回复我~ 2018-02-16 18:00:26
Michael_PK 2018-02-16 14:03:45

建议先装个maven配置maven home

0 回复 有任何疑惑可以回复我~
  • 提问者 慕函数2082699 #1
    我有配置maven啊,我的mvn -version 是3.5的
    回复 有任何疑惑可以回复我~ 2018-02-16 14:12:26
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信