讲师回答 / 徐老师
如果想要构造某种格式的大量数据,可以自己写一个代码循环进行迭代即可,在循环内部按照一定格式组装数据,最后通过输出日志或者直接写文件的方式就可以得到对应的大量数据了。
2023-02-14
讲师回答 / 徐老师
课程中需要用到的软件安装包、以及相关代码都在网盘中了:链接:https://pan.baidu.com/s/1LaTqzY5NR9pv5-Xg5sWWOA 提取码:1234
2022-12-23
讲师回答 / 徐老师
json数据的资料、sqoop相关的资料已经上传到这个网盘链接中了链接:https://pan.baidu.com/s/1AhKOkvsob_ugADZaQc6RlQ 提取码:dy6j
2022-12-12
讲师回答 / 徐老师
Hadoop里面其实包含了HDFS集群和YARN集群。根据你的意思来看应该是说的HDFS的主节点NameNode把,如果NameNode节点对应的内存满了,可以考虑使用federation联邦机制(需要用到多个NameNode节点),这样可以提高NameNode节点的存储能力。此时每个NameNode负责维护一个命名空间,命名空间简单理解就是一个HDFS目录,这个HDFS目录下文件的元数据信息就存储在对应的这个NameNode内存中。其他的NameNode负责维护其他的命名空间,这样整个HDFS集群的存储...
2022-09-07
讲师回答 / 徐老师
客户端机器的配置和集群机器的配置保持完全一样即可,唯一的区别是,客户端节点上不需要启动任何进程。其实最简单的做法就是把集群中修改好配置的hadoop安装包直接拷贝到客户端节点即可
2021-05-10
讲师回答 / 徐老师
空格和制表符直接看起来不好区分,在videoinfowritable的tostring方法中使用的制表符你要是想验证的话,可以把tostring方法中的制表符改为逗号,再跑一下代码就会发现结果中是用逗号分割的了
2020-12-29
讲师回答 / 徐老师
你到8088界面中查看了吗,能不能看到任务信息很奇怪,没有任何输出信息你这样执行一下试试,使用hadoop内置的wordcount案例hadoop jar hadoop-3.2.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar wordcount /input /output你可以加一下慕课的大数据学习qun 938632081 方便沟通
2020-12-12
讲师回答 / 徐老师
是一样的,hadoop fs这种用法是在hadoop1.x的时候提供的在hadoop2.x的时候提供了新的用法,hdfs dfs,同时也兼容了hadoop1.x中的写法,所以两个效果是一样的。
2020-10-27