讲师回答 / 徐老师
针对你提的这个疑问:【如果集群规模比较大时,要在每一个节点上面启动 jobhistorysever岂不是很麻烦?】在生产环境下搭建大数据集群的时候,建议使用CDH或者HDP进行搭建,方便运维管理,主需要通过页面操作就可以实现hadoop集群的搭建,这些进程也都会自动启动,不需要单独手工操作。
2020-10-26
讲师回答 / 徐老师
针对你说的这种场景,会出现这种结果:有2个节点读取本地节点中的数据进行本地计算,另外2个节点上没有数据的,则会跨节点拉取数据进行计算。默认情况下会优先读取本节点的数据,这是最优的策略,如果由于各种原因无法满足这种策略,会退而求其次,进行跨节点数据传输
2020-10-26
讲师回答 / 徐老师
官网下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-3.2.0/hadoop-3.2.0.tar.gz
2020-09-09
已采纳回答 / 徐老师
你现在的情况是hdfs的服务都起来了,所以访问192.168.100.10:9870是可以的而NodeManager 和 ResourceManager进程没起来,说明YARN服务没有起来,应该是YARN的相关配置文件修改的有问题你在启动的时候控制台有没有显示错误问题?如果没有的话到hadoop的logs目录下(/data/hadoop_repo/logs/hadoop这个目录下)看一下这个日志hadoop-root-resourcemanager-bigdata01.log,这里面会显示Resource...
2020-07-20
讲师回答 / 徐老师
sqoop1.4.7 下载地址 请查收?https://downloads.apache.org/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz
2020-07-09
讲师回答 / 徐老师
一般出现这种情况是因为依赖包没有下载成功,你可以到你本地的maven仓库中确认一下对应的jar包是否成功下载或者尝试重新强制下载依赖,使用命令 mvn clean compile
2020-06-24
讲师回答 / 徐老师
我之前写的有一篇博客讲如何在docker中安装hadoop集群,是16年的时候写的,hadooop的版本用的是2.4的,你可以参考下,最近我抽时间看看最新版本的再写一篇博客https://blog.csdn.net/xu470438000/article/details/50512442
2020-06-21