HDFS启动后会有三个进程,在官网默认配置时,只有Namenode的更改方式如下图所示,更改localhost为指定IP即可完成对Namenode启动ip的更改。
但关于Datenode和Secondarynamenode启动ip的更改,官网并没有给出,在启动过程也是以默认进程启动,如下图所示。(0.0.0.0代表当前机器ip)
以下内容来详细讲解Datenode和Secondarynamenode启动ip的更改。
1、进入hadoop配置文件文件夹etc
由于HDFS的架构模式为主/从架构,故更改slaves文件,即可完成对Datenode启动ip的更改。
2、更改Datenode启动节点
vi slaves
如上所示,更改为所需ip地址即可。
扫描二维码关注公众号,回复:
1465438 查看本文章
3、更改Secondarynamenode启动节点
查看官网关于默认配置的设置。http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
查询Secondarynamenode,如下图所示,就是我们需要配置的文件信息,因为是HDFS进程,故进入HDFS配置文件更改即可。
vi etc/hadoop/hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>192.168.233.111:50090</value> </property> <property> <name>dfs.namenode.secondary.https-address</name> <value>192.168.233.111:50091</value> </property> </configuration>
重启HDFS,如下图表示更改成功(我主机更改的是主机hadoop01对应的192.168.233.111地址)