为了账号安全,请及时绑定邮箱和手机立即绑定

linux环境下,使用local模式启动spark时报找不到主类

linux环境下,使用local模式启动spark时报找不到主类

小波66 2019-07-04 20:39:11
报错信息是:Error: Could not find or load main class org.apache.spark.launcher.Mainspark环境说明:(SPARK_HOME环境变量中我尝试了自己编译的和网上下载的,都报同一个错误)    spark-2.1.0-bin-2.6.0-cdh5.7.0 这个包是从网上下载的,    spark-2.4.3-bin-hadoop-2.6.0-cdh5.7.0 这个是我自己编译源码的:        编译命令:(最后能编译成功)./dev/make-distribution.sh --name hadoop-2.6.0-cdh5.7.0 --tgz -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0    以下是我的环境变量配置信息:export SPARK_HOME=/home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0export PATH=$SPARK_HOME/bin:$PATHexport JAVA_HOME=/home/hadoop/app/jdk1.8.0_201export PATH=$JAVA_HOME/bin:$PATHexport MAVEN_HOME=/home/hadoop/app/apache-maven-3.6.1export PATH=$MAVEN_HOME/bin:$PATHexport HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0export PATH=$HADOOP_HOME/bin:$PATHexport HIVE_HOME=/home/hadoop/app/hive-1.1.0-cdh5.7.0export PATH=$HIVE_HOME/bin:$PATHexport SCALA_HOME=/home/hadoop/app/scala-2.11.8export PATH=$SCALA_HOME/bin:$PATH 
查看完整描述

2 回答

  • 2 回答
  • 0 关注
  • 1670 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信