为了账号安全,请及时绑定邮箱和手机立即绑定

Spark从零开始

Terby JAVA开发工程师
难度初级
时长 2小时18分
学习人数
综合评分9.80
56人评价 查看评价
9.8 内容实用
9.7 简洁易懂
9.9 逻辑清晰

最新回答 / 755378268
https://www.imooc.com/qadetail/341618

最新回答 / 鲲t
IDE中的, 只是在ide中编译时会用的, 本地安装的, 是在控制台操作, 或是其他指定了该scala版本的运行程序才会使用,安装的路径不一样, 如果你能找到路径, 其实两个都是正常使用的

最新回答 / 慕UI1389583
不重复,scala官网下载下载的是开发包,IDE中中的Scala插件是开发的用的。

最新回答 / w657395940
你是不是spark的环境没有搭好。老师讲的环境是基于hadoop搭建的。

最赞回答 / 慕侠822756
老铁,我跟你一样遇到了这个问题,折腾了我好久终于解决了。我是deepin系统,装了“jdk-11.0.2",怀疑是JDK版本的问题,后面就把它换成了"jdk1.8.0_201",first函数终于执行成功了,你可以下载这个版本,或者格式类似这个版本的JDK把原来的JDK替换掉试试

最新回答 / adime
办法一:在spark的conf目录下,在spark-env.sh文件中加入LD_LIBRARY_PATH环境变量LD_LIBRARY_PATH=$HADOOP_HOME/lib/native办法二:在 ~/.bashrc 设置一下 export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native试试看有没有用

最新回答 / 宝慕林1045435
spark如果你的提交作业的方式是local,是不需要配置任何东西的,视频里面老师都是在spark-shell下进行操作的所以不需要配置任何东西,按照你的说法,spark-shell命令无效是因为没有去到spark的bin目录下执行命令,如果你往/etc/profile或者~/.bash_profile 下进行把spark的bin加入到PATH的的话就可以不用去到bin目录下也可以执行spark-shell。如果你的spark作业是提交在yarn等外部框架上面则需要配置spark-env.sh文件。

最新回答 / Dev_Christopher
这与RDD的分区数量有关,你后面学过这个就会知道的
课程须知
1、 简单Linux的操作
老师告诉你能学到什么?
1、了解Spark到底是什么 2、了解Spark和Hadoop的区别 3、了解Spark的基础知识和概念 4、掌握Spark RDD的基本操作和特性 5、掌握Spark程序的开发和部署流程

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消