版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/xiaobao5214/article/details/84628717
安装完成spark后,启动hive,发生错误:
ls: cannot access /opt/soft/spark-2.1.3-bin-hadoop2.6/lib/spark-assembly-*.jar: No such file or directory
问题原因:
新版本的spark的jar包路径有变化,hive没有及时更新
解决办法:
// 修改hive的启动脚本
vim hive/bin/hive
// 定位到位置,上面一行是原有的,下一行是修改的
#sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`