为了账号安全,请及时绑定邮箱和手机立即绑定

讲师回答 / 徐老师
mapreduce代码默认不支持直接在本地调试

讲师回答 / 徐老师
你到8088界面中查看了吗,能不能看到任务信息很奇怪,没有任何输出信息你这样执行一下试试,使用hadoop内置的wordcount案例hadoop jar   hadoop-3.2.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar   wordcount /input /output你可以加一下慕课的大数据学习qun  938632081  方便沟通

最新回答 / weidong_伟东
禁用selinux:编辑 /etc/selinux/config文件,设置“SELINUX=disabled” 

讲师回答 / 徐老师
一样的效果,你在/etc/profile里面设置也是可以的/etc/profile里面是设置的全局的环境变量,在执行那4个脚本的时候就可以识别到那些配置了

讲师回答 / 徐老师
是一样的,hadoop fs这种用法是在hadoop1.x的时候提供的在hadoop2.x的时候提供了新的用法,hdfs dfs,同时也兼容了hadoop1.x中的写法,所以两个效果是一样的。

讲师回答 / 徐老师
针对你提的这个疑问:【如果集群规模比较大时,要在每一个节点上面启动 jobhistorysever岂不是很麻烦?】在生产环境下搭建大数据集群的时候,建议使用CDH或者HDP进行搭建,方便运维管理,主需要通过页面操作就可以实现hadoop集群的搭建,这些进程也都会自动启动,不需要单独手工操作。

讲师回答 / 徐老师
针对你说的这种场景,会出现这种结果:有2个节点读取本地节点中的数据进行本地计算,另外2个节点上没有数据的,则会跨节点拉取数据进行计算。默认情况下会优先读取本节点的数据,这是最优的策略,如果由于各种原因无法满足这种策略,会退而求其次,进行跨节点数据传输

讲师回答 / 徐老师
看下你代码的第32行,错误信息提示的是数组角标越界了

讲师回答 / 徐老师
代码已上传至网盘?链接:https://pan.baidu.com/s/1JJ5AHDOd3gIXJmo6g08Btg 提取码:ghbt 

讲师回答 / 徐老师
官网下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-3.2.0/hadoop-3.2.0.tar.gz

讲师回答 / 徐老师
这里面提示的是你设置的adress设置的有问题,应该是主机名有问题你的主机名中有没有用下划线之类的特殊字符?

讲师回答 / 徐老师
sqoop1.4.7 下载地址  请查收?https://downloads.apache.org/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz

讲师回答 / 徐老师
获取最新大数据体系课进展情况,请关注公众号<...图片...>

讲师回答 / 徐老师
一般出现这种情况是因为依赖包没有下载成功,你可以到你本地的maven仓库中确认一下对应的jar包是否成功下载或者尝试重新强制下载依赖,使用命令 mvn clean compile
课程须知
学习中需要用到这些工具: —Linux —IDEA —Hadoop —MySQL —Sqoop —Echarts(图表展示) 你需要有这些基础: —熟悉Java语言和IDEA开发工具 —有一定的Linux基础和Shell编程基础 —有一定的MySQL基础
老师告诉你能学到什么?
1、Hadoop3.0集群安装部署 2、Hadoop三大核心组件(HDFS+MapReduce+Yarn)的核心原理和使用 3、使用Hadoop进行海量数据存储和分析

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消