转:遇到问题---hadoop----local-dirs are bad

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/q383965374/article/details/79428818
遇到的问题
我们的hadoop集群在运作过程中部分节点报错local-dirs are bad

原因
hadoop集群硬盘目录默认的使用阈值是90% 
空间不足,目录使用率超过阈值了90%了

解决方式
调整yarn的参数 
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage 
把比例调高到98%

但是这种方式治标不治本,最好还是清理hadoop集群的空间,腾出硬盘空间。

https://discuss.pivotal.io/hc/en-us/articles/230700528-YARN-Alerts-NodeManager-is-unhealthy-local-dirs-are-bad
————————————————
版权声明:本文为CSDN博主「张小凡vip」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/zzq900503/article/details/79428818

发布了12 篇原创文章 · 获赞 130 · 访问量 34万+

猜你喜欢

转载自blog.csdn.net/wdr2003/article/details/103363735