注:我的示范代码种三台机器的名字为node1、node2、node3,示范代码中需要替换成你自己的
1、slaves
node1
node2
node3
hadoop3.0以后slaves更名为workers了
2、hadoop-env.sh
# 由于hadoop是基于java语言的程序,所以,需要配置JDK
export JAVA_HOME=/server/jdk1.8.0_171
3、core-site.xml
<configuration>
<!-- 指定hadoop所使用的文件系统schema,HDFS的大哥(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://xiaob01:9000</value>
</property>
<!--指定hadoop运行时产生文件的存储目录,默认存放在/tmp/hadoop-${user.name}-->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
</configuration>
4、hdfs-site.xml
<configuration>
<!-- 文件备份的数量 -->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!-- 指定secondary节点在哪儿 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node2:50090</value>
</property>
</configuration>
5、mapred-site.xml
<configuration>
<!-- 指定mapreduce运行的位置 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
6、yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<!-- 指定yarn的大哥的位置,也就是ResourceManager的位置 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node1</value>
</property>
<!-- NodeManager上运行的附属服务,配置了此项,才能运行MapReduce程序的默认值 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
配置文件不能够有中文,所以记得把注释去掉
完整配置文件下载地址,除了主机名外无需再做修改
https://download.csdn.net/download/xiao_xiao_b/11245074