您的位置:首页 > 数据库 > Mongodb

MongoDB 启动时关于 NUMA 警告 的分析----(To avoid performance problems)

xuliuzai 2019-07-23 10:38 597 查看

 1. 需求描述

观察MongoDB的启动Log,会看到一个关于  NUMA 的警告 和 优化建议

2018-07-17T17:00:04.516+0800 I CONTROL  [initandlisten] ** WARNING: You are running on a NUMA machine.
2018-07-17T17:00:04.516+0800 I CONTROL  [initandlisten] **          We suggest launching mongod like this to avoid performance problems:
2018-07-17T17:00:04.516+0800 I CONTROL  [initandlisten] **              numactl --interleave=all mongod [other options]
2019-08-17T17:00:04.516+0800 I CONTROL  [initandlisten]

那么我们是不是要调整下Linux的系统配置?首先我们先补充下基本知识。

2.相关知识介绍

2.1 NUMA和SMP

NUMA和SMP是两种CPU相关的硬件架构。

SMP (对称多处理器结构: Symmetric Multi-Processor) 

在SMP架构里面,所有的CPU争用一个总线来访问所有内存,优点是资源共享,而缺点是当处理器的数目增大时,系统总线的竞争冲突加大,系统总线将成为瓶颈。随着PC服务器上的CPU数量变多(不仅仅是CPU核数),总线争用的弊端慢慢越来越明显。

NUMA ( 非一致存储访问结构: Non-Uniform Memory Access)

NUMA是指多处理器系统中,内存的访问时间是依赖于处理器和内存之间的相对位置的。这种设计里存在和处理器相对近的内存,通常被称作本地内存;还有和处理器相对远的内存,通常被称为非本地内存。NUMA最大的特点是引入了node和distance的概念。对于CPU和内存这两种最宝贵的硬件资源,NUMA用近乎严格的方式划分了所属的资源组(node),而每个资源组内的CPU和内存是几乎相等。资源组的数量取决于物理CPU的个数(现有的PC server大多数有两个物理CPU);distance是用来定义各个node之间调用资源的开销,为资源调度优化算法提供数据支持。

NUMA系统的结点通常是由一组CPU(如,SGI Altix 3000是2个Itanium2 CPU)和本地内存组成,有的结点可能还有I/O子系统。由于每个结点都有自己的本地内存,因此全系统的内存在物理上是分布的,每个结点访问本地内存和访问其它结点的远地内存的延迟是不同的,为了减少非一致性访存对系统的影响,在硬件设计时应尽量降低远地内存访存延迟(如通过Cache一致性设计等),而操作系统也必须能感知硬件的拓扑结构,优化系统的访存。

2.2  NUMA的利与弊

现在的机器上都是有多个CPU和多个内存块的。以前我们都是将内存块看成是一大块内存,所有CPU到这个共享内存的访问消息是一样的,这就是之前普遍使用的SMP模型。但是随着处理器的增加,共享内存可能会导致内存访问冲突越来越厉害,且如果内存访问达到瓶颈的时候,性能就不能随之增加。NUMA(Non-Uniform Memory Access)就是在这样的背景下引入的一个模型。比如一台机器是有2个处理器,有4个内存块。我们将1个处理器和两个内存块合起来,称为一个NUMA node,这样这个机器就会有两个NUMA node。在物理分布上,NUMA node的处理器和内存块的物理距离更小,因此访问也更快。比如这台机器会分左右两个处理器(cpu1, cpu2),在每个处理器两边放两个内存块(memory1.1, memory1.2, memory2.1,memory2.2),这样NUMA node1的cpu1访问memory1.1和memory1.2就比访问memory2.1和memory2.2更快。所以使用NUMA的模式如果能尽量保证本node内的CPU只访问本node内的内存块,提高访问效率。

但是,因为NUMA默认的内存分配策略是优先在进程所在CPU的本地内存中分配,会导致CPU节点之间内存分配不均衡,当某个CPU节点的内存不足时,会导致swap产生,而不是从远程节点申请内存,即所谓的swap insanity 现象。现有的Redhat Linux中,localalloc策略是默认的NUMA内存分配策略(localalloc规定进程从当前node上请求分配内存,此外还有策略 preferred、membind、interleave),这个配置选项导致资源独占程序很容易将某个node的内存用尽。而当某个node的内存耗尽时,Linux又刚好将这个node分配给了某个需要消耗大量内存的进程(或线程),swap产生了。尽管此时还有很多page cache可以释放,甚至还有很多的free内存。SWAP的罪与罚文章就说到了一个numa的陷阱的问题。现象是服务器还有内存的时候,发现它已经在开始使用swap了,甚至导致机器出现停滞的现象。所以,如果限制一个进程只能使用自己的numa节点的内存,那么当它自身numa node内存使用光之后,就不会去使用其他numa node的内存了,会开始使用swap,甚至更糟的情况,机器没有设置swap的时候,可能会直接死机!

2.3 NUMA 与 Swap 的案例说明

例如,我们通过 numactl --hardware 来 查看系统上的NUMA节点信息,如下:

从上面的信息可以 node 0 的 free 内存为312 MB,node 1 的free 内存为15254 MB。

 可知,两个Node 节点的 上的剩余内存严重不均衡。

当Node 0 上需要申请大于312MB的内存时,就会产生SWAP。

即,由于服务器硬件、系统设置不当,没有关闭NUMA,容易导致发生SWAP。

查看此服务器的内存情况,确实如此。

总结; 如果你的程序是会占用大规模内存的,应该考虑选择关闭numa node的限制(或从硬件关闭numa),因为这个时候很有可能会碰到numa陷阱。另外,如果你的程序并不占用大内存,而是要求更快的程序运行时间,可以考虑选择限制只访问本numa node的方法来进行处理。

3.numa 相关操作命令 

1 安装管理工具

yum install numactl -y

2.查看系统的NUMA节点

numactl --hardware

3.查看绑定信息

numactl  --show

4.查看执行统计信息

numastat

当 numa_miss数值比较高时,说明需要对分配策略进行调整,从而提高内存命中率。

4.CentOS7.x 关闭 NUMA

Step 1  编辑 /etc/default/grub 文件,在GRUB_CMDLINE_LINUX 行上添加加:numa=off,如下图:

Step 2  重新生成 /etc/grub2.cfg 配置文件-----【此操作应慎重

grub2-mkconfig -o /etc/grub2.cfg

Step 3 重启操作系统

reboot

Step 4 修改验证

dmesg | grep -i numa

或者 

cat /proc/cmdline

显示结果,出现了  numa=off 字符

 

 

在此设置下,重新MongoDB服务,查看log记录,关于NUMA的警告信息不再出现。

 

5.设置  interleave=all

在上面的操作中,其实我们并没有针对 interleave=all 进行设置。针对这个建议,我们是不是还可以进行一些设置。

继续进行测试,换一台机器。

5.1 测试环境

修改配置前;

MongoDB log 的启动记录

2018-07-23T16:50:42.844+0800 I CONTROL  [initandlisten] ** WARNING: You are running on a NUMA machine.
2018-07-23T16:50:42.844+0800 I CONTROL  [initandlisten] **          We suggest launching mongod like this to avoid performance problems:
2018-07-23T16:50:42.844+0800 I CONTROL  [initandlisten] **              numactl --interleave=all mongod [other options]

NUMA的信息;

从上面的信息可以看出NUMA是开启的。

5.2 在BIOS层设置interleave

下面的操作是在BIOS层,设置interleave。需通过远程管理卡去调整。

Step 1:远程管理开连接指定机器后,点击【宏】--》点击【Ctl-Alt-Del】进行重启  (特别注意:【Ctl-Alt-Del】 针对Windows系统是解除本机锁定;Linux系统是要重启,要特别小心)

Step 2 出现以下界面时,在键盘上请按下F2键,进行System Setup 

Step 3 启动后,选择【System Bios】

Step 4 选择 【Memory Settings】

Step 5 针对【Node Interleaving】选项 由【Disabled】调整为【Enabled】

调整前

调整后

Step 6 后退【即上一步点击Back】后,点击【Finish】,然后点击【Yes】

 

 Step 7 点击 【OK】

 Step 8 点击Finish,点击同意重启

Step 9 重启OK

 

 5.3 修改效果验证

查看NUMA信息,数据显示NUMA已经关闭

 

重启MongoDB实例,查看Log中没有了NUMA的相关警告。

说明通过上面BIOS的调整,关闭了NUMA。

 

参考资料:

1.https://www.thegeekdiary.com/how-to-disable-numa-in-centos-rhel-67/

2.https://www.jianshu.com/p/e36c54b4b53e;

3.https://www.geek-share.com/detail/2640855093.html;

4.部分资料梳理于网络分享。

标签: 
章节导航