spark的docker安装(单节点适合开发环境)

安装环境
centos7.2
docker(这个安装请参考我的另一篇博客https://blog.csdn.net/qq_16563637/article/details/81699251)
sequenceiq/hadoop:2.6.0(这个安装请参考我的另一篇博客https://blog.csdn.net/qq_16563637/article/details/81702633)
本人亲自测试能够正常使用
下载spark

docker pull sequenceiq/spark:1.6.0

docker运行

docker run -it -p 4040:4040 -p 8081:8081 -p 8080:8080 -p 8042:8042 -p 8030:8030 -p 8040:8040 -p 7077:7077 --name spark --rm sequenceiq/spark:1.6.0 /bin/bash

进入容器
docker exec -it 容器名 /bin/bash

docker exec -it 05d499dd260f /bin/bash
cd /usr/local/spark-1.6.0-bin-hadoop2.6
sbin/start-master.sh
sbin/start-slave.sh localhost:7077 --webui-port 8081

测试管控台
在浏览器中分别访问
宿主机IP:8080
宿主机IP:8081
ok spark安装完成!
为了正常使用配置环境变量,进入容器中设置

docker exec -it 05d499dd260f /bin/bash
vi /etc/profile
export SPARK_HOME=/usr/local/spark-1.6.0-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin
source /etc/profile

打开spark-shell

spark-shell

结束

猜你喜欢

转载自blog.csdn.net/qq_16563637/article/details/81706042