版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
- 运行MapReduce
- 在本地文件系统中新建一个txt
- cd /home/data
- vim words
- 启动HDFS+yarn
- sbin/start-dfs.sh
- sbin/start-yarn.sh
- 将words放上HDFS
- bin/hdfs dfs -put /home/data/words /words
- 对words进行MapReduce处理将结果输出到/out
- bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount /words /out
- 对结果进行查看
- bin/hdfs dfs -cat /out/part-r-00000
- 在本地文件系统中新建一个txt
- 配置回收站
-
Hadoop的回收站trash功能默认是关闭的,所以需要在core-site.xml中手动开启。
-
在core-site.xml中添加
-
<property>
<name>fs.trash.interval</name>
<value>10</value>
</property>
-
-
删除一个文件
-
bin/hdfs dfs -rm -f /words
-
-
改变/user的文件权限
-
bin/hdfs dfs -chmod -R /user
-
-
配置完成,可以在/user/root/.Trash/Current中找到删除的文件
-