版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/roczheng1990/article/details/83240683
Hadoop下的connect refused问题
问题产生原因:
假设hadoop正常运行中出现这个问题,那有可能在重启hadoop的过程中,hadoop集群出现了异常。
解决方法:
这个时候jps会发现,有得机器上的服务启动不全,
正常情况下应该是下图中的服务:
这是master节点的服务
这两幅图是slaves节点的服务:
查看日志:
cat hadoop-spark-datanode-kafka05.log
这个cluster ID 不一致 出现了问题
这时候要修改配置文件:
修改这个ID使得集群中保持一致。
重启hadoop服务就OK了。现在 hdfs、hive服务都正常了。