- JDK :Hadoop和Spark 依赖的配置,官方建议JDK版本在1.7以上!!!
- Scala:Spark依赖的配置,建议版本不低于spark的版本。
- Hadoop: 是一个分布式系统基础架构。
- Spark: 分布式存储的大数据进行处理的工具。
- zookeeper:分布式应用程序协调服务,HBase集群需要。
- HBase: 一个结构化数据的分布式存储系统。
- Hive: 基于Hadoop的一个数据仓库工具,目前的默认元数据库是mysql。
Spark 与 Hive 的定义
猜你喜欢
转载自blog.csdn.net/wrh_csdn/article/details/80336287
今日推荐
周排行