版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zhangyingchengqi/article/details/82894155
问题描述 :
运行 hadoop fs -put log1.txt /streamingtest 时出错:
org.apache.hadoop.dfs.SafeModeException: Cannot put ...... Name node is in safe mode
分析:
Name node is in safe mode
说明Hadoop的NameNode处在安全模式下。
那什么是Hadoop的安全模式呢?
在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,直到安全模式结束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。运行期通过命令也可以进入安全模式。在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可。
那么如何退出安全模式呢?
bin/hadoop dfsadmin -safemode leave 即可.
问题产生的原因: 前面在运行spark集群时,虚拟机卡住了,所以 ctrl+c了一次,造成 hadoop进入了safe mode .