ps -aux | sort -k4nr /opt/models/jdk//bin/java -cp /opt/models/spark-1.6.1-bin-hadoop2.6/conf/
2017-03-02 17:01
375 查看
centos7没有存储大量的数据,可是内存无缘无故就被占满了,
通过 ps -aux | sort -k4nr
查看占据内存的程序都有哪些
看到运行中的spark节点,但是本人并没有开启spark服务,
可能以前设置服务器登陆秘钥的时候,
曾经忘记关了,
kill -9 PID
free 发现有大量的内存被释放
属于刚使用centos的小菜,回答不专业,
最近我弄elasticsearch,要是有同志想指教一下,可以留言。
通过 ps -aux | sort -k4nr
查看占据内存的程序都有哪些
看到运行中的spark节点,但是本人并没有开启spark服务,
可能以前设置服务器登陆秘钥的时候,
曾经忘记关了,
kill -9 PID
free 发现有大量的内存被释放
属于刚使用centos的小菜,回答不专业,
最近我弄elasticsearch,要是有同志想指教一下,可以留言。
相关文章推荐
- spark-2.2.0-bin-hadoop2.6和spark-1.6.1-bin-hadoop2.6发行包自带案例全面详解(java、python、r和scala)之Basic包下的SparkPi.scala(图文详解)
- spark-2.2.0-bin-hadoop2.6和spark-1.6.1-bin-hadoop2.6发行包自带案例全面详解(java、python、r和scala)之Basic包下的SparkTC.scala(图文详解)
- spark-2.2.0-bin-hadoop2.6和spark-1.6.1-bin-hadoop2.6发行包自带案例全面详解(java、python、r和scala)之Basic包下的JavaTC.java(图文详解)
- spark-2.2.0-bin-hadoop2.6和spark-1.6.1-bin-hadoop2.6发行包自带案例全面详解(java、python、r和scala)之环境准备(图文详解)
- spark-2.2.0-bin-hadoop2.6和spark-1.6.1-bin-hadoop2.6发行包自带案例全面详解(java、python、r和scala)之Basic包下的JavaSparkPi.java(图文详解)
- spark-2.2.0-bin-hadoop2.6和spark-1.6.1-bin-hadoop2.6发行包自带案例全面详解(java、python、r和scala)之Basic包下的JavaPageRank.java(图文详解)
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- Centos7 下 spark1.6.1_hadoop2.6 分布式集群环境搭建
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- spark集群进入 bin 下面目录./spark-shell 出现Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- Centos7 下 spark1.6.1_hadoop2.6 分布式集群环境搭建
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- /opt/hadoop//bin/hadoop: line 144: /usr/lib/jvm/jdk1.7.0_151/bin/java: No such file or directory
- hadoop-2.6.0.tar.gz + spark-1.6.1-bin-hadoop2.6.tgz + zeppelin-0.5.6-incubating-bin-all.tgz(master、slave1和slave2)(博主推荐)(图文详解)
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)