Spark MLlib 入门学习笔记 - 编程环境配置

配置windows下Spark MLlib的编程环境,实现在windows下用scala开发程序,用小数据集测试验证程序的正确性。少做修改,或者不做修改,然后打包成jar文件,用spark-submit提交到spark集群进行测试。假设已 安装好jdk、scala、IntelliJ IDEA和scala插件。

1. 安装hadoop、spark和hadoop2.6_Win_x64-master

下载 hadoop-2.6.0.tar.gz和spark-1.6.0-bin-hadoop2.6,从github下载hadoop2.6_Win_x64-master.zip(https://github.com/sdravida/hadoop2.6_Win_x64)。创建目录e:\spark,1)将三个文件解压缩到e:\spark目录下,2)将E:\spark\hadoop2.6_Win_x64-master\bin的文件拷贝到E:\spark\hadoop260\bin下面,3)将spark-assembly-1.6.0-hadoop2.6.0.jar文件拷贝到C:\Program Files (x86)\JetBrains\IntelliJ IDEA 2016.2.5\lib目录下。

2. 配置spark编译环境

启动idea创建scala工程

640?wx_fmt=png&wxfrom=5&wx_lazy=1

0?wx_fmt=png

2. 添加spark-assembly-1.6.0-hadoop2.6.0.jar依赖包

 点击File主菜单的Project Structure子菜单,弹出配置界面后选择Libraries,再点"+"号弹出Select Library Files界面,完成选择后,点OK就可以了。

0?wx_fmt=png

在SparkDiscover目录下创建data目录,并在这个目录下建一个wordcount.txt文件,用作测试。在src目录下创建两级子目录main/scala作为源代码存放目录,然后创建一个名称为basic的package目录和WordCount源文件。

0?wx_fmt=png


[plain] view plain copy

  1. package basic  

  2.   

  3. /**  

  4.   * Created by Oliver on 2017/5/13.  

  5.   */  

  6. import org.apache.spark.{SparkConf, SparkContext}  

  7.   

  8. // "local"  

  9. // "E:/MyProject/SparkDiscover/data/wordcount.txt"  

  10.   

  11. object WordCount {  

  12.   def main(args: Array[String]){  

  13.     val conf = new SparkConf().setMaster(args(0)).setAppName("WordCount")  

  14.     val sc = new SparkContext(conf)  

  15.     val data = sc.textFile(args(1))  

  16.     data.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect().foreach(println)  

  17.   

  18.   }  

  19. }  


程序中用了两个参数,参数1:提交到本地还是集群,参数2:文件名(本地或者是hdfs),在本地windows 下的运行配置。程序很简单,创建定义、创建上下文、读数据文件、调用flatMap进行处理(空格分割、map计数、reduce将计数相加,最后逐行打印输出)。

0?wx_fmt=png

运行结果

0?wx_fmt=png

打包输出,选择菜单File/Project Structure弹出界面后选择Artificts,点击"+" 如下图进行选择,再依次点apply和ok。

0?wx_fmt=png

点完以后发现,它把所有的包多添加进去了,时间上不需要这么多。把不需要的包删除,结果如下图所示。

0?wx_fmt=png

build jar包

0?wx_fmt=png

3. 在spark集群下运行

从out/artifacts/SparkDiscover_jar目录下拷贝SparkDiscover.jar文件到spark集群上,运行一下脚本进行测试。


[plain] view plain copy

  1. spark-submit --master spark://d-hdp-01:7077 \  

  2. --class basic.WordCount \  

  3. --executor-memory 1g \  

  4. /home/hadoop/_testing/SparkDiscover.jar \  

  5. spark://d-hdp-01:7077 \  

  6. hdfs://d-hdp-01:9000/user/hadoop.txt  > result.log  


打印输出被重定向到result.log文件中。运行结果如下。

0?wx_fmt=png

从界面上可以看到提交的任务,提交两次,界面上也显示了两次。

0?wx_fmt=png

0?wx_fmt=gif

猜你喜欢

转载自blog.csdn.net/h8b6Pk7M7r8/article/details/78993131