我目前在 JRE: 1.8.0_181, Python: 3.6.4, spark: 2.3.2我正在尝试在 Python 中执行以下代码:from pyspark.sql import SparkSessionspark = SparkSession.builder.appName('Basics').getOrCreate()这失败并出现以下错误:spark = SparkSession.builder.appName('Basics').getOrCreate() 回溯(最近一次调用):文件“”,第 1 行,文件“C:\Tools\Anaconda3\lib\site-packages\pyspark\sql \session.py”,第 173 行,在 getOrCreate sc = SparkContext.getOrCreate(sparkConf) 文件“C:\Tools\Anaconda3\lib\site-packages\pyspark\context.py”,第 349 行,在 getOrCreate SparkContext(conf= conf 或 SparkConf()) 文件 "C:\Tools\Anaconda3\lib\site-packages\pyspark\context.py", line 118, in init conf, jsc, profiler_cls) 文件 "C:\Tools\Anaconda3\lib\ site-packages\pyspark\context.py”,第 195 行,在 _do_init self._encryption_enabled = self._jvm.PythonUtils.getEncryptionEnabled(self._jsc) 文件“C:\Tools\Anaconda3\lib\site-packages\py4j\java_gateway .py”,第 1487 行,在getattr 中 “{0}.{1} 在 JVM 中不存在”.format(self._fqn, name)) py4j.protocol.Py4JError: org.apache.spark.api.python.PythonUtils.getEncryptionEnabled 在 JVM 中不存在任何人都知道这里可能存在的潜在问题是什么?感谢这里的任何帮助或反馈。谢谢!
添加回答
举报
0/150
提交
取消