讲师回答 / 叁金
配置够的话是可以的,搭建虚拟机搭建即可。https://www.imooc.com/article/25592https://www.imooc.com/article/24911可以参看着两个手记进行尝试。祝顺利~
2019-08-06
讲师回答 / 叁金
hdfs-site.xml<...code...>相关配置你可以查看https://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml 不用迷茫了
2019-04-13
最新回答 / 慕粉13321504129
我之前也是下载的hadoop 3.0版本,但是会出现很多错误。后来找运维朋友他建议用hadoop-2.7.3版本。mapred-site.xml配置如下:<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration>...
2019-03-16
最赞回答 / qq_单纯永远_0
HBase Hive用途: 弥补Hadoop的实时操作 减少并行计算编写工作的批处理系统检索方式:适用于检索访问 适用于全表扫描存储: 物理表 纯逻辑表功能: HBase只负责组织文件 Hive既要储存文件又需要计算框架执行效...
2018-12-28
最赞回答 / Cybtron
一个MapReduce作业由Map阶段和Reduce阶段两部分组成,这两阶段会对数据排序,从这个意义上说,MapReduce框架本质就是一个Distributed Sort。在Map阶段,Map Task会在本地磁盘输出一个按照key排序(采用的是快速排序)的文件(中间可能产生多个文件,但最终会合并成一个),在Reduce阶段,每个Reduce Task会对收到的数据排序,这样,数据便按照Key分成了若干组,之后以组为单位交给reduce()处理。很多人的误解在Map阶段,如果不使用Combiner便不会...
2018-10-24
讲师回答 / 叁金
使用bash hdfs dfs -ls / 或者 ./hdfs dfs -ls /我视频里面能直接使用hdfs命令是因为我添加了HADOOP_HOME的环境变量,并将其bin目录添加到了PATH内。你也可以在~/.bashrc里面添加export HADOOP_HOME=xxxxexport PATH=xxx/bin:$PATH
2018-08-26