【没有assembly目录】spark2.0.0启动时无法访问spark-assembly-*.jar的解决办法
2016-11-17 15:47
330 查看
1、问题描述
自从spark2.0.0发布之后,每次启动hive的时候,总会发现一个小问题,启动 hive --service metastore的时候,会报一个小BUG: 无法访问<PathToSpark>/lib/spark-assembly-*.jar
分析其源码架构,发现主要原因是:在/<PathToHive>/bin/hive文件中,有这样的命令:加载spark中相关的JAR包。
但是spark升级到spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。
2、解决方法:
修改/<PathToHive>/bin/hive文件,将加载原来的lib/spark-assembly-*.jar`替换成jars/*.jar,就不会出现这样的问题。
3、最后验证下:
自从spark2.0.0发布之后,每次启动hive的时候,总会发现一个小问题,启动 hive --service metastore的时候,会报一个小BUG: 无法访问<PathToSpark>/lib/spark-assembly-*.jar
分析其源码架构,发现主要原因是:在/<PathToHive>/bin/hive文件中,有这样的命令:加载spark中相关的JAR包。
但是spark升级到spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。
2、解决方法:
修改/<PathToHive>/bin/hive文件,将加载原来的lib/spark-assembly-*.jar`替换成jars/*.jar,就不会出现这样的问题。
3、最后验证下:
相关文章推荐
- Hive在spark2.0.0启动时无法访问../lib/spark-assembly-*.jar: 没有那个文件或目录的解决办法
- 【没有assembly目录】spark2.0.0启动时无法访问spark-assembly-*.jar的解决办法
- Hive在spark2.0.0启动时无法访问../lib/spark-assembly-*.jar: 没有那个文件或目录的解决办法
- Hive在spark2.0.0启动时无法访问spark-assembly-*.jar的解决办法
- Hive在spark2.0.0启动时无法访问spark-assembly-*.jar的解决办法
- Windows 64 位 mysql 5.7以上版本包解压中没有data目录和my-default.ini及服务无法启动的快速解决办法(问题小结)
- Windows 64 位 mysql 5.7以上版本包解压中没有data目录和my-default.ini以及服务无法启动的解决办法
- 网络中工作组中计算机无法访问或没有选项的解决办法汇总
- apache提示网站目录或文件没有权限访问的解决办法
- 启动调时错误"无法启动调试 没有正确安装调试器 请运行安装程序安装或修复调试器"的解决办法
- swing程序,避免程序达成JAR包无法访问image等资源问题的解决办法
- Android导入项目后没有jar无法运行解决办法
- 删除eclipse3.4的configuration目录导致eclipse无法启动的解决办法
- 姚博文 删除eclipse的configuration目录导致eclipse无法启动的解决办法
- Nginx访问二级目录后/(反斜杠)无法访问问题的解决办法
- struts2 无法访问static目录下的内容的解决办法
- vss报错Workgroup无法访问,您可能没有权限使用网络资源解决办法
- 删除eclipse3.4的configuration目录导致eclipse无法启动的解决办法
- wordpress无法建立目录 是否上级目录没有写权限?解决办法
- 针对没有光驱,NTLDR is missing系统无法启动的解决办法