1、Spark Hadoop都是运算框架
2、Hadoop有3部分构成:MapReduce,Hdfs,Yarn.其中MapReduce已经慢慢退出历史舞台,由Spark来接替。所以说Hadoop已死,这个说法是不成立的
2.1、Spark底层也必须依赖hdfs,因为Spark只管计算 ,不管存储。其实貌似Hbase底层也依赖hdfs
1、Spark Hadoop都是运算框架
2、Hadoop有3部分构成:MapReduce,Hdfs,Yarn.其中MapReduce已经慢慢退出历史舞台,由Spark来接替。所以说Hadoop已死,这个说法是不成立的
2.1、Spark底层也必须依赖hdfs,因为Spark只管计算 ,不管存储。其实貌似Hbase底层也依赖hdfs