为了账号安全,请及时绑定邮箱和手机立即绑定

为什么Apache Spark不适用于Java 10?

为什么Apache Spark不适用于Java 10?

九州编程 2021-05-06 10:08:48
有什么技术原因导致spark 2.3无法与java 1.10一起使用(截至2018年7月)?这是当我使用运行SparkPi示例时的输出spark-submit。我通过切换到Java8而不是这里提到的Java10来解决了这个问题。
查看完整描述

3 回答

?
当年话下

TA贡献1890条经验 获得超9个赞

通勤者在这里。支持Java 9+实际上是一项相当大的工作:SPARK-24417

它也差不多完成了,应该为Spark 3.0做好准备,它应该可以在Java 8到11以及更高版本上运行。

目的(我的目的)是在不打开模块访问权限的情况下使其正常工作。关键问题包括:

  • sun.misc.Unsafe 用法必须删除或解决

  • 引导类加载器的结构更改

  • Scala对Java 9+的支持

  • 大量依赖关系更新可与Java 9+一起使用

  • JAXB不再自动可用


查看完整回答
反对 回复 2021-05-26
  • 3 回答
  • 0 关注
  • 193 浏览

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信