02:hdfs伪集群安装

 伪集群版安装:

 1:安装Hadoop单机版
       https://blog.csdn.net/lucklilili/article/details/83818145

 2:配置
   

 vim  /usr/local/hadoop-2.7.1/etc/hadoop/core-site.xml

     

<configuration>
   <!--配置hdsf的nameNode的地址-->
   <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop01:9000</value>
   </property>
   <!--配置hadoop临时文件存储的地址-->
   <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoopdata/tmp</value>
   </property>
  
</configuration>
vim  /usr/local/hadoop-2.7.1/etc/hadoop/hdfs-site.xml

  

<configuration>
   <!--配置副本数量-->
   <property>
           <name>dfs.replication</name>
                   <value>1</value>
                      </property>
                         <!--配置hdfs块大小-->
   <property>
           <name>dfs.blocksize</name>
                   <value>134217728</value>
                      </property>
                         <!--配置hdfs web页面的监控地址-->
   <property>
           <name>dfs.http.address</name>
                   <value>hadoop01:50070</value>
                      </property>
                        <!--配置hdfs secondary namenode web页面的监控地址-->
   <property>
           <name>dfs.secondary.http.address</name>
                   <value>hadoop01:50090</value>
                      </property>
                        <!--配置nameNode元数据的存放路径-->
   <property>
           <name>dfs.namenode.name.dir</name>
                   <value>file:///home/hadoopdata/dfs/name</value>
                      </property>
                        <!--配置dataNode数据的存放路径-->
   <property>
           <name>dfs.namenode.data.dir</name>
                   <value>file:///home/hadoopdata/dfs/data</value>
                      </property>
                         <!--配置检测点-->
   <property>
           <name>fs.checkpoint.dir</name>
                   <value>file:///home/hadoopdata/checkpoint/dfs/cname</value>
                      </property>
                         <!--配置hdfs的权限true开启 false关闭-->
   <property>
           <name>dfs.permissions</name>
                   <value>false</value>
                      </property>
                     
</configuration>

   3:这些文件目录不需要自己手动创建:
       

 bin/hdfs namenode -format

   4:启动
     

  sbin/start-dfs.sh

  5 :执行jps查看java服务,展示以下信息代表成功。
      

[root@hadoop01 hadoop]# jps
2832 NameNode
2932 DataNode
3124 SecondaryNameNode
3368 Jps
[root@hadoop01 hadoop]# 

6 :上传文件到hdfs

   

hdfs dfs -put etc/hadoop/*.xml /

7 :查看上传的文件

扫描二维码关注公众号,回复: 5711800 查看本文章

     

hadoop fs -ls /

猜你喜欢

转载自blog.csdn.net/lucklilili/article/details/83893141