hdfs的空间容量

    在安装hadoop完成后,发现hdfs文件系统的空间容量极小,平均下来每个数据节点只提供了50G大小的容量。操作系统环境是centos7 mini ,硬盘分区化时缺省是给根目录分配了50G ,而将绝大多数的空间都分配给了 home 目录, hdfs文件系统的配置文件 hdfs-site.xml 中的dfs.namenode.name.dir 和 dfs.datanode.data.dir 的两个属性设置如下

 <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/opt/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/opt/hadoop/dfs/data</value>
    </property>

再将这两个属性更改为

<property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/home/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/home/dfs/data</value>
    </property>

重新运行namenode 和 datanode 后 ,hdfs文件系统的容量就接近几个数据节点的总和了

猜你喜欢

转载自blog.csdn.net/lepton126/article/details/88342892