为了账号安全,请及时绑定邮箱和手机立即绑定

讲师回答 / 叁金
配置够的话是可以的,搭建虚拟机搭建即可。https://www.imooc.com/article/25592https://www.imooc.com/article/24911可以参看着两个手记进行尝试。祝顺利~

讲师回答 / 叁金
看一下手记:https://www.imooc.com/article/24911

讲师回答 / 叁金
你不能这么算啊, 每个packet不仅仅是放的chunk的data还有它的checksum以及header。而且它是可以放部分chunk的

讲师回答 / 叁金
hdfs-site.xml<...code...>相关配置你可以查看https://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml  不用迷茫了

讲师回答 / 叁金
啥也没有就是你hdfs上就没数据咯。      回复上面同学:  如果添加了环境变量是不需要./的   没添加环境变量才需要./  而且在其他目录会直接报错哦

最新回答 / 慕粉13321504129
我之前也是下载的hadoop 3.0版本,但是会出现很多错误。后来找运维朋友他建议用hadoop-2.7.3版本。mapred-site.xml配置如下:<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration>...

最赞回答 / qq_单纯永远_0
                     HBase                                 Hive用途:      弥补Hadoop的实时操作        减少并行计算编写工作的批处理系统检索方式:适用于检索访问                     适用于全表扫描存储:       物理表                                   纯逻辑表功能:       HBase只负责组织文件            Hive既要储存文件又需要计算框架执行效...

讲师回答 / 叁金
第一次请求会获取到该文件所有block所有的datanode信息。   获取文件完成之后,向namenode反馈block的状态

讲师回答 / 叁金
你的python是什么版本啊?好像3.7有这个问题,不知道解决了没有。  

最赞回答 / Cybtron
一个MapReduce作业由Map阶段和Reduce阶段两部分组成,这两阶段会对数据排序,从这个意义上说,MapReduce框架本质就是一个Distributed Sort。在Map阶段,Map Task会在本地磁盘输出一个按照key排序(采用的是快速排序)的文件(中间可能产生多个文件,但最终会合并成一个),在Reduce阶段,每个Reduce Task会对收到的数据排序,这样,数据便按照Key分成了若干组,之后以组为单位交给reduce()处理。很多人的误解在Map阶段,如果不使用Combiner便不会...

讲师回答 / 叁金
种一棵树最好的时间是十年前,其次是现在。与君共勉!

讲师回答 / 叁金
使用bash hdfs dfs -ls /   或者 ./hdfs dfs -ls /我视频里面能直接使用hdfs命令是因为我添加了HADOOP_HOME的环境变量,并将其bin目录添加到了PATH内。你也可以在~/.bashrc里面添加export HADOOP_HOME=xxxxexport PATH=xxx/bin:$PATH
课程须知
有Linux命令使用基础,有Python编程基础
老师告诉你能学到什么?
大数据到底是个啥,大数据方向到底怎么样 Hadoop基础原理与两个核心 Hadoop的基础应用 Hadoop生态圈简介 Hadoop生态圈常用开源项目介绍

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消