The method addInputPath(JobConf, Path) in the type FileInputFormat is not applicable for the arguments (Job, Path)
报这个错误时需要将旧版的 API org.apache.hadoop.mapred.FileInputFormat;
换成 org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
报这个错误时需要将旧版的 API org.apache.hadoop.mapred.FileInputFormat;
换成 org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
2018-04-28
hadoop 1.2.1版本
conf.set("fs.defaultDF,hdfs")改成
conf.set("fs.default.name", hdfs);
conf.set("fs.defaultDF,hdfs")改成
conf.set("fs.default.name", hdfs);
2018-04-21
建议大家可以先看一下这个博客
主要讲解如何配置虚拟机centos,安装配置hadoop环境,将eclipse与hadoop连接
http://www.cnblogs.com/xia520pi/category/346943.html
主要讲解如何配置虚拟机centos,安装配置hadoop环境,将eclipse与hadoop连接
http://www.cnblogs.com/xia520pi/category/346943.html
2018-04-20
老师讲的非常好,不过需要各位有基础,等大家把矩阵相乘学完,再对比这个图,能够清晰的讲解出map-shuffle-reduce对应的区段,以及颜色块内对应的键值对的集合,那就学到了!我也是回头反过来才一一对应起来的。
2018-03-15
看到后面的又反过来看前面,才开始明白,map实际代码只用处理一行,而且可以重复写相同的key,比如<1,Deer Bear Deer><2,Deer Bear Car>,map实际代码写的时候只需要处理<1,Deer Bear Deer>,并且可以写两次context.write("Deer", 1);也就是这个map在写的时候,实际上代码是context.write("Deer", 1);context.write("Bear", 1);context.write("Deer", 1);
2018-03-15