hadoop 版本不同,是否影响配置的相关问题
首先,我使用的是ubuntu16.04+hadoop2.7.2,再配置的时候,文件夹不是conf,而是etc,执行文件也不在bin文件夹,而是sbin等等的差别,这样配置文件是否收到影响?是否应该随着版本不同有什么调整?
当配置完毕,java环境变量坚持没问题(其实安装完java包还未配置java的环境,就可以执行javac,java -version等命令了),之后配置,格式化namenode之后,start-all.sh启动hadoop之后,jps查看进程,只有Jps和 ResourceManager两个进程,按要求检查了配置情况了,计算机名称也对的,host文件也没有问题,但就是不行,是不是版本的配置问题呢?
到底问题出在哪里了呢?