HDFS三进程启动IP更改教程

    HDFS启动后会有三个进程,在官网默认配置时,只有Namenode的更改方式如下图所示,更改localhost为指定IP即可完成对Namenode启动ip的更改。


    但关于Datenode和Secondarynamenode启动ip的更改,官网并没有给出,在启动过程也是以默认进程启动,如下图所示。(0.0.0.0代表当前机器ip)


    以下内容来详细讲解Datenode和Secondarynamenode启动ip的更改。

1、进入hadoop配置文件文件夹etc


    由于HDFS的架构模式为主/从架构,故更改slaves文件,即可完成对Datenode启动ip的更改。

2、更改Datenode启动节点

vi slaves

如上所示,更改为所需ip地址即可。

扫描二维码关注公众号,回复: 1465438 查看本文章

3、更改Secondarynamenode启动节点

    查看官网关于默认配置的设置。http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml


    查询Secondarynamenode,如下图所示,就是我们需要配置的文件信息,因为是HDFS进程,故进入HDFS配置文件更改即可。


vi etc/hadoop/hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>192.168.233.111:50090</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.https-address</name>
        <value>192.168.233.111:50091</value>
    </property>
</configuration>

    重启HDFS,如下图表示更改成功(我主机更改的是主机hadoop01对应的192.168.233.111地址)


猜你喜欢

转载自blog.csdn.net/qq_25302531/article/details/80550504