您的位置:首页 > 编程语言 > C语言/C++

一个简单例子说明为什么C语言在2013年仍很重要

2013-12-27 11:54 477 查看
最近,我一直在开发Dynvm——一个通用的动态语言运行时。就像其他任何好的语言运行时项目一样,开发是由基准测试程序驱动的。因此,我一直在用基准测试程序测试各种由不同语言编写的算法,以此对其典型的运行速度有一个感觉上的认识。一个经典的测试就是迭代计算斐波那契数列。为简单起见,我以2^64为模,用两种语言编写实现了该算法。

用Python语言实现如下:

01
def
fib(n):
02
SZ
=
2
*
*
64
03
i
=
0
04
a,
b
=
1
,
0
05
while
i
< n:
06
t
=
b
07
b
=
(b
+
a)
%
SZ
08
a
=
t
09
i
=
i
+
1
10
return
b
用C语言实现如下:

01
#include
<stdio.h>
02
#include
<stdlib.h>
03
typedef
unsigned
long
ulong;
04
05
int
main(
int
argc,
char
*argv[])
06
{
07
ulong
n =
atoi
(argv[1]);
08
ulong
a= 1;
09
ulong
b= 0;
10
ulong
t;
11
12
for
(ulong
i= 0; i< n; i++) {
13
t
= b;
14
b
= a+b;
15
a
= t;
16
}
17
18
printf
(
"%lu\n"
,
b);
19
return
0;
20
}
其他语言实现的代码示例,我已放在github上。

Dynvm包含一个基准测试程序框架,该框架可以允许在不同语言之间对比运行速度。在一台Intel i7-3840QM(调频到1.2 GHz)机器上,当 n=1,000,000 时,对比结果如下:

1
=======================================================
2
语言
时间 (秒)
3
=======================================================
4
Java
0.133
5
C
Language 0.006
6
CPython
0.534
7
Javascript
V80.284
很明显,C语言是这里的老大,但是java的结果有点误导性,因为大部分的时间是由JIT编译器启动(~120ms)占用的。当n=100,000,000时,结果变得更明朗:

1
=======================================================
2
语言
时间(秒)
3
=======================================================
4
Java
0.300
5
C
Language 0.172
6
CPython
47.909
7
Javascript
V824.179
在这里,我们探究下为什么C语言在2013年仍然很重要,以及为什么编程世界不会完全“跳槽”到Python或者V8/Node。有时你需要原始性能,但是动态语言仍在这方面艰难挣扎着,即使对以上很简单的例子而言。我个人相信这种情况会克服掉,通过几个项目我们能在这方面看到很大的希望:JVM、V8、PyPy、LuaJIT等等,但在2013年我们还没有到达“目的地”。

然而,我们无法回避这样的问题:为什么差距如此之大?在C语言和Python之间有278.5倍的性能差距!最不可思议的地方是,从语法角度讲,以上例子中的C语言和Python内部循环基本上一模一样。

为了找到问题的答案,我搬出了反汇编器,发现了以下现象:

01
0000000000400480
<main>:
02
247
400480: 48 83 ec 08 sub$0x8,%rsp
03
248
400484: 48 8b7e 08 mov0x8(%rsi),%rdi
04
249
400488: ba0a00 00 00mov$0xa,%edx
05
250
40048d: 31 f6 xor%esi,%esi
06
251
40048f: e8 cc ff ff ffcallq400460 <strtol@plt>
07
252
400494: 48 98 cltq
08
253
400496: 31 d2 xor%edx,%edx
09
254
400498: 48 85 c0test%rax,%rax
10
255
40049b: 74 26 je 4004c3 <main+0x43>
11
256
40049d: 31 c9 xor%ecx,%ecx
12
257
40049f: 31 f6 xor%esi,%esi
13
258
4004a1: bf 01 00 00 00mov$0x1,%edi
14
259
4004a6: eb0e jmp4004b6 <main+0x36>
15
260
4004a8: 0f 1f 84 00 00 00 00nopl 0x0(%rax,%rax,1)
16
261
4004af: 00
17
262
4004b0: 48 89 f7mov%rsi,%rdi
18
263
4004b3: 48 89 d6mov%rdx,%rsi
19
264
4004b6: 48 83 c1 01 add$0x1,%rcx
20
265
4004ba: 48 8d 14 3e lea(%rsi,%rdi,1),%rdx
21
266
4004be: 48 39 c8cmp%rcx,%rax
22
267
4004c1: 77 ed ja4004b0 <main+0x30>
23
268
4004c3: be ac 06 40 00mov$0x4006ac,%esi
24
269
4004c8: bf 01 00 00 00mov$0x1,%edi
25
270
4004cd: 31 c0 xor%eax,%eax
26
271
4004cf: e8 9c ff ff ffcallq400470 <__printf_chk@plt>
27
272
4004d4: 31 c0 xor%eax,%eax
28
273
4004d6: 48 83 c4 08 add$0x8,%rsp
29
274
4004da: c3retq
30
275
4004db: 90nop
(译注:

1、不同的编译器版本及不同的优化选项(-Ox)会产生不同的汇编代码。

2、反汇编方法:gcc -g -O2 test.c -o test;objdumb-d test>test.txt读者可以自己尝试变换优化选项对比反汇编结果)

最主要的部分是计算下一个斐波那契数值的内部循环:

1
262
4004b0: 48 89 f7mov%rsi,%rdi
2
263
4004b3: 48 89 d6mov%rdx,%rsi
3
264
4004b6: 48 83 c1 01 add$0x1,%rcx
4
265
4004ba: 48 8d 14 3e lea(%rsi,%rdi,1),%rdx
5
266
4004be: 48 39 c8cmp%rcx,%rax
6
267
4004c1: 77 ed ja4004b0 <main+0x30>
变量在寄存器中的分配情况如下:

1
a:
%rsi
2
b:
%rdx
3
t:
%rdi
4
i:
%rcx
5
n:
%rax
262和263行实现了变量交换,264行增加循环计数值,虽然看起来比较奇怪,265行实现了b=a+t。然后做一个简单地比较,最后一个跳转指令跳到循环开始出继续执行。

手动反编译以上代码,代码看起来是这样的:

1
loop:
t= a
2
a
= b
3
i
= i+1
4
b
= a+t
5
if
(n
> i)
goto
loop
整个内部循环仅用六条X86-64汇编指令就实现了(很可能内部微指令个数也差不多。译者注:Intel X86-64处理器会把指令进一步翻译成微指令,所以CPU执行的实际指令数要比汇编指令多)。CPython解释模块对每一条高层的指令字节码至少需要六条甚至更多的指令来解释,相比而言,C语言完胜。除此之外,还有一些其他更微妙的地方。

拉低现代处理器执行速度的一个主要原因是对于主存的访问。这个方面的影响十分可怕,在微处理器设计时,无数个工程时(engineering hours)都花费在找到有效地技术来“掩藏”访存延时。通用的策略包括:缓存、推测预取、load-store依赖性预测、乱序执行等等。这些方法确实在使机器更快方面起了很大作用,但是不可能完全不产生访存操作。

在上面的汇编代码中,从没访问过内存,实际上变量完全存储在CPU寄存器中。现在考虑CPython:所有东西都是堆上的对象,而且所有方法都是动态的。动态特性太普遍了,以至于我们没有办法知道,a+b执行integer_add(a,b)、string_concat(a,b)、还是用户自己定义的函数。这也就意味着很多时间花在了在运行时找出到底调用了哪个函数。动态JIT运行时会尝试在运行时获取这个信息,并动态产生x86代码,但是这并不总是非常直接的(我期待V8运行时会表现的更好,但奇怪的是它的速度只是Python的0.5倍)。因为CPython是一个纯粹的翻译器,在每个循环迭代时,很多时间花在了解决动态特性上,这就需要很多不必要的访存操作。

除了以上内存在搞鬼,还有其他因素。现代超标量乱序处理器核一次性可以取好几条指令到处理器中,并且“在最方便时”执行这些指令,也就是说:鉴于结果仍然是正确的,指令执行顺序可以任意。这些处理器也可以在同一个时钟周期并行执行多条指令,只要这些指令是不相关的。Intel Sandy Bridge CPU可以同时将168条指令重排序,并可以在一个周期中发射(即开始执行指令)至多6条指令,同时结束(即指令完成执行)至多4条指令!粗略地以上面斐波那契举例,Intel这个处理器可以大约把28(译者注:28*6=168)个内部循环重排序,并且几乎可以在每一个时钟周期完成一个循环!这听起来很霸气,但是像其他事一样,细节总是非常复杂的。

我们假定8条指令是不相关的,这样处理器就可以取得足够的指令来利用指令重排序带来的好处。对于包含分支指令的指令流进行重排序是非常复杂的,也就是对if-else和循环(译者注:if-else需要判断后跳转,所以必然包含分支指令)产生的汇编代码。典型的方法就是对于分支指令进行预测。CPU会动态的利用以前分支执行结果来猜测将来要执行的分支指令的执行结果,并且取得那些它“认为”将要执行的指令。然而,这个推测有可能是不正确的,如果确实不正确,CPU就会进入复位模式(译者注:这里的复位不是指处理器reset,而是CPU流水线的复位),即丢弃已经取得的指令并且重新开始取指。这种复位操作有可能对性能产生很大影响。因此,对于分支指令的正确预测是另一个需要花费很多工程时的领域。

现在,不是所有分支指令都是一样的,有些可以很完美的预测,但是另一些几乎不可能进行预测。前面例子中的循环中的分支指令——就像反汇编代码中267行——是最容易预测的其中一种,这个分支指令会连续向后跳转100,000,000次。

以下是一个非常难预测的分支指令实例:

01
void
main(
void
)
02
{
03
for
(
int
i
= 0; i< 1000000; i++) {
04
 
int
n
= random();
05
 
if
(n
>= 0) {
06
printf
(
"positive!\n"
);
07
}
else
{
08
printf
(
"negative!\n"
);
09
}
10
}
11
}
如果random()是真正随机的(事实上在C语言中远非如此),那么对于if-else的预测还不如随便猜来的准确。幸运的是,大部分的分支指令没有这么顽皮,但是也有很少一部分和上面例子中的循环分支指令一样变态。

回到我们的例子上:C代码实现的斐波那契数列,只产生一个非常容易预测的分支指令。相反地,CPython代码就非常糟糕。首先,所有纯粹的翻译器有一个“分配”循环,就像下面的例子:

1
void
exec_instruction(instruction_t
*inst)
2
{
3
switch
(inst->opcode)
{
4
case
ADD:
//
do add
5
case
LOAD: 
//
do load
6
case
STORE:
//
do store
7
case
GOTO: 
//
do goto
8
}
9
}
编译器无论如何处理以上代码,至少有一个间接跳转指令是必须的,而这种间接跳转指令是比较难预测的。

接下来回忆一下,动态语言必须在运行时确定如“ADD指令的意思是什么”这样基本的问题,这当然会产生——你猜对了——更加变态的分支指令。

以上所有因素加起来,最后导致一个278.5倍的性能差距!现在,这当然是一个很简单的例子,但是其他的只会比这更变态。这个简单例子足以凸显低级静态语言(例如C语言)在现代软件中的重要地位。我当然不是2013年里C语言最大的粉丝,但是C语言仍然主导着低级控制领域及对性能要求高的应用程序领域。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: