最新回答 / 鲲t
IDE中的, 只是在ide中编译时会用的, 本地安装的, 是在控制台操作, 或是其他指定了该scala版本的运行程序才会使用,安装的路径不一样, 如果你能找到路径, 其实两个都是正常使用的
2019-05-09
最赞回答 / 慕侠822756
老铁,我跟你一样遇到了这个问题,折腾了我好久终于解决了。我是deepin系统,装了“jdk-11.0.2",怀疑是JDK版本的问题,后面就把它换成了"jdk1.8.0_201",first函数终于执行成功了,你可以下载这个版本,或者格式类似这个版本的JDK把原来的JDK替换掉试试
2019-02-26
最新回答 / adime
办法一:在spark的conf目录下,在spark-env.sh文件中加入LD_LIBRARY_PATH环境变量LD_LIBRARY_PATH=$HADOOP_HOME/lib/native办法二:在 ~/.bashrc 设置一下 export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native试试看有没有用
2019-01-14
最新回答 / 宝慕林1045435
spark如果你的提交作业的方式是local,是不需要配置任何东西的,视频里面老师都是在spark-shell下进行操作的所以不需要配置任何东西,按照你的说法,spark-shell命令无效是因为没有去到spark的bin目录下执行命令,如果你往/etc/profile或者~/.bash_profile 下进行把spark的bin加入到PATH的的话就可以不用去到bin目录下也可以执行spark-shell。如果你的spark作业是提交在yarn等外部框架上面则需要配置spark-env.sh文件。
2018-12-07