您的位置:首页 > 运维架构 > Shell

Ubuntu 16.04 shell 命令使用小结

2020-06-03 05:41 573 查看

1.解压文件:
sudo tar -zxvf ./下载/eclipse-jee-neon-a-linux-gtk-x86_64.tar.gz -C /usr/lib/jvm
2.删除文件:sudo rm -rf 文件(夹)名
3.重定向文件:cd usr/lib/jvm
4.卸载软件:sudo apt-get purge remove 软件名
5.移动文件:sudo mv jdk-8u121-linux-x64.tar.gz /opt/java
6.给文件重命名:
mv hive-default.xml.template hive-default.xml
7.修改配置文件:
vim hive-site.xml
8.启动 mysql 😒 mysql -u root -p
9.退出mysql: mysql>quit
10.启动hadoop:
$ cd /usr/local/hadoop #进入Hadoop安装目录
$ ./sbin/start-dfs.sh
11.启动hive:
$ cd /usr/local/hive
$ ./bin/hive
12.

“无法访问”原因——spark 2 中不存在spark-assembly-.jar,所以hive没有办法找到这个JAR包。
解决办法: 修改//bin/hive文件,将SPARK_HOME后面的lib/spark-assembly-.jar替换成jars/*.jar,




问题解决。
13.

Loggin initialized using configuration in jar:file:/usr/local/hive/lib/hive-common-1.2.1.jar!/hive-long4j.properties
Exception in thread “main” java.lang.RuntimeException:
原因:standby异常,namenode没有激活。由于hive是基于hadoop集群运行的,需要将我们搭的hadoop HA集群的NameNode激活。
14. 针对 DataNode 没法启动解决方法(注意这会删除 HDFS 中原有所有数据):
$cd /usr/local/hadoop
$./sbin/stop-dfs.sh # 关闭
$rm -r ./tmp # 删除 tmp 文件,注意这会删除 HDFS 中原有的所有数据
$./bin/hdfs namenode -format # 重新格式化 NameNode
$./sbin/start-dfs.sh # 重启

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: