讲师回答 / 徐老师
你到8088界面中查看了吗,能不能看到任务信息很奇怪,没有任何输出信息你这样执行一下试试,使用hadoop内置的wordcount案例hadoop jar hadoop-3.2.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar wordcount /input /output你可以加一下慕课的大数据学习qun 938632081 方便沟通
2020-12-12
已采纳回答 / 徐老师
核心日志在这File /README.txt._COPYING_ could only be written to 0 of the 1 minReplication nodes. There are 0 datanode(s) running and 0 node(s) are excluded in this operatio意思是说从节点没有启动成功,现在没有正常的datanode
2020-11-13
讲师回答 / 徐老师
是一样的,hadoop fs这种用法是在hadoop1.x的时候提供的在hadoop2.x的时候提供了新的用法,hdfs dfs,同时也兼容了hadoop1.x中的写法,所以两个效果是一样的。
2020-10-27
如果集群规模比较大时,要在每一个节点上面启动 jobhistorysever岂不是很麻烦?
2020-10-27
讲师回答 / 徐老师
针对你提的这个疑问:【如果集群规模比较大时,要在每一个节点上面启动 jobhistorysever岂不是很麻烦?】在生产环境下搭建大数据集群的时候,建议使用CDH或者HDP进行搭建,方便运维管理,主需要通过页面操作就可以实现hadoop集群的搭建,这些进程也都会自动启动,不需要单独手工操作。
2020-10-26
讲师回答 / 徐老师
针对你说的这种场景,会出现这种结果:有2个节点读取本地节点中的数据进行本地计算,另外2个节点上没有数据的,则会跨节点拉取数据进行计算。默认情况下会优先读取本节点的数据,这是最优的策略,如果由于各种原因无法满足这种策略,会退而求其次,进行跨节点数据传输
2020-10-26