学习笔记:从0开始学习大数据-8.直接在Eclipse配置运行MapReduce程序

前面开发hadoop程序是打包成jar,然后在命令行执行 hadoop jar  XXX.jar  XXXX 的方式提交作业,现在记录直接在Eclipse IDE执行MapReduce作业的方法,还是用经典的WordCount程序。

1.配置Eclipse 的hdfs环境

(1)菜单:窗口-》透视图-》打开透视图-》其它-》选“Map/Reduce”

(2) 选“New Hadoop Location”

(3) 输入你的hdfs地址

 (4)可以在资源管理器看到DFS Location,直接查看hdfs文件目录

2.创建新的WordCount项目

(1)菜单:文件-》新建-》其它-》Map/Reduce Project

(2) 输入项目名,选hadoop根目录-》完成

(3)在新建的项目App.java文件中按我的上篇文章

https://blog.csdn.net/oLinBSoft/article/details/84311188 学习笔记:从0开始学习大数据-4.Eclipse配置hadoop开发环境

加入WordCount类的代码

3.配置WordCount类运行环境

(1)菜单:运行-》运行配置-》双击 “Java 应用程序”  新建WordCount的运行配置

(2)  输入运行程序需要的参数

5.运行程序

6.在资源管理器中查看执行产生的hdfs文件

猜你喜欢

转载自blog.csdn.net/oLinBSoft/article/details/84345381