Namenode节点的部署:
部署zookeeper之后的细节:
分别部署hdfs-site.xml和core-site.xml文件
然后将node1中配置好的部署好的文档分别分发给其他的node节点,命令为:
Scp hdfs-site.xml core-site.xml 192.168.198.22:`pwd`
启动node1上边的namenode,命令为:
Hadoop-daemon.sh start namenode
在namenode2上边执行命令:hdfs namenode -bootstrapStandby
接着在node1上执行普通格式化:
Hdfs namenode -format
启动node1:
Start-dfs.sh
然后启动zkfc和zookeeper集群。
访问192.168.198.21:/50070和192.168.198.22:/50070,分别出现active和standby
想要杀死某一个集群,先jps一下,显示号码,然后:kill -9 号码。
最后补充:
启动zookeeper集群的命令:zkServer start ,查看zookeeper集群的命令:zkServer status
启动namenode的命令:hadoop-daemon.sh start namenode或者hadoop-daemon.sh restart namenode
启动命令:start-dfs.sh
启动所有的命令:start-all.sh
监控的命令:tail -f hadoop-root-namenode-nod02.log或者:tail -f access.log
启动zkfc的命令:hadoop-daemon.sh start zkfc
启动journalnode的命令:hadoop-daemon.sh restart journalnod
启动Nginx的命令: service nginx restart,service nginx start
登录节点的命令: ssh 192.168.198.23
拷贝的命令:scp id_dsa.pub [email protected]:`pwd`/node02.pub;
scp -r ./sxt/ 192.168.198.22:/opt/
解压文件的命令:tar -zxvf 文件名
安装某一文件:yum install 文件名 -y
重定向的命令:cat node03.pub >> authorized_keys
登录某一节点,退出的命令;exit
打开或者编辑文件的命令:vi 文件名
查看某一文件:cat access.log(文件名)
删除某一文件:rm -r access.log
退出到上一节目录文件:cd -
退出到上一个目录:cd ..
退出到最初始的状态目录:cd
创建文件夹:mkdir 文件夹名
创建深层次的文件夹:mkdir -p /opt/sxt
执行监控的命令:telnet 192.168.198.22:44444(需要提前执行yum install telnet -y)
查询文件的位置:whereis access.log
删除某一文件:rm -rf 文件名
删除:rm -rf 文件名
2888是主从模型下的端口号
3888是无主模型下的端口号
Yy是复制,p是黏贴,dd是删除。
Pwd是指当前目录
配置完/etc/profile文件之后,记得要source ./etc/profile或者执行:. /etc/profile