为了账号安全,请及时绑定邮箱和手机立即绑定

向spark集群提交任务本机必须是linux环境吗

向spark集群提交任务本机必须是linux环境吗

慕容3067478 2019-02-22 13:14:41
向spark集群提交任务本机必须是linux环境吗
查看完整描述

1 回答

?
qq_花开花谢_0

TA贡献1835条经验 获得超7个赞

开发环境:
操作系统:win8 64位
IDE:IntelliJ IDEA
JDK:1.7
scala:scala-2.11.7
spark:linux上spark集群版本:1.4.1,本地依赖spakr的jar直接拷贝linux上$SPARK_HOME/lib/spark-assembly-1.4.1-hadoop2.4.0.jar
maven关键依赖:
Xml代码
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.4.1</version>
</dependency>

<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>2.10.4</version>
</dependency>
<!-- 进行LDA 会使用到一下jar,否则可不引入


查看完整回答
反对 回复 2019-03-02
  • 1 回答
  • 0 关注
  • 797 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信