linux kettle hadoop copy file 有时无法保存数据问题

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_27384505/article/details/80106686

通过脚本启动kettle的job时,会出现有时hadoop copy file 没有启动或运行的情况,其实这都是kettle自带的缓存问题,

windows下不会出现这种情况,但linux下会导致一些时候没有启动hadoop copy file操作

可以采用如下方式编写脚本


将kettle里的缓存文件夹删除即可

猜你喜欢

转载自blog.csdn.net/qq_27384505/article/details/80106686