我一直在用C编写一个涉及大量链表迭代的项目.为了获得基准,我在Go中重写了代码.令人惊讶的是,我发现即使将-O标志传递给clang之后,Go实现仍然以大约10%的速度运行.可能我只是在C中错过了一些明显的优化,但是我一直在用一些调整来敲打墙壁一段时间.
这是一个简化版本,在C和Go中具有相同的实现,其中Go程序运行得更快.它所做的只是创建一个包含3000个节点的链表,然后计算在此列表上迭代1,000,000次所需的时间(C为7.5秒,Go为6.8).
C :
#include <iostream>
#include <chrono>
using namespace std;
using ms = chrono::milliseconds;
struct Node {
Node *next;
double age;
};
// Global linked list of nodes
Node *nodes = nullptr;
void iterateAndplace(double age) {
Node *node = nodes;
Node *prev = nullptr;
while (node != nullptr) {
// Just to make sure that age field is accessed
if (node->age > 99999) {
break;
}
prev = node;
node = node->next;
}
// Arbitrary action to make sure the compiler
// doesn't optimize away this function
prev->age = age;
}
int main() {
Node x = {};
std::cout << "Size of struct: " << sizeof(x) << "\n"; // 16 bytes
// Fill in global linked list with 3000 dummy nodes
for (int i=0; i<3000; i++) {
Node* newNode = new Node;
newNode->age = 0.0;
newNode->next = nodes;
nodes = newNode;
}
auto start = chrono::steady_clock::Now();
for (int i=0; i<1000000; i++) {
iterateAndplace(100.1);
}
auto end = chrono::steady_clock::Now();
auto diff = end - start;
std::cout << "Elapsed time is : "<< chrono::duration_cast<ms>(diff).count()<<" ms "<<endl;
}
走:
package main
import (
"time"
"fmt"
"unsafe"
)
type Node struct {
next *Node
age float64
}
var nodes *Node = nil
func iterateAndplace(age float64) {
node := nodes
var prev *Node = nil
for node != nil {
if node.age > 99999 {
break
}
prev = node
node = node.next
}
prev.age = age
}
func main() {
x := Node{}
fmt.Printf("Size of struct: %d\n",unsafe.Sizeof(x)) // 16 bytes
for i := 0; i < 3000; i++ {
newNode := new(Node)
newNode.next = nodes
nodes = newNode
}
start := time.Now()
for i := 0; i < 1000000; i++ {
iterateAndplace(100.1)
}
fmt.Printf("Time elapsed: %s\n",time.Since(start))
}
我的Mac输出:
$go run minimal.go Size of struct: 16 Time elapsed: 6.865176895s $clang++ -std=c++11 -stdlib=libc++ minimal.cpp -O3; ./a.out Size of struct: 16 Elapsed time is : 7524 ms
铿锵版:
$clang++ --version Apple LLVM version 8.0.0 (clang-800.0.42.1) Target: x86_64-apple-darwin15.6.0 Thread model: posix
编辑:
UKMonkey提出了这样一个事实,即节点可以在Go中连续分配,但不能在C中分配.为了测试这个,我在C中用向量连续分配,这并没有改变运行时:
// Fill in global linked list with 3000 contiguous dummy nodes
vector<Node> vec;
vec.reserve(3000);
for (int i=0; i<3000; i++) {
vec.push_back(Node());
}
nodes = &vec[0];
Node *curr = &vec[0];
for (int i=1; i<3000; i++) {
curr->next = &vec[i];
curr = curr->next;
curr->age = 0.0;
}
我检查了生成的链表确实是连续的:
std::cout << &nodes << " " << &nodes->next << " " << &nodes->next->next << " " << &nodes->next->next->next << "\n"; 0x1032de0e0 0x7fb934001000 0x7fb934001010 0x7fb934001020
解决方法
所以我被激发了,并决定看一下为Go生成的汇编程序,然后跟着它查看clang的输出.
高级别摘要
稍后,我将在x86-64汇编程序中查看两种语言的汇编输出.本例中代码的基本“关键部分”是一个非常紧凑的循环.因此,它是该计划花费时间的最大贡献者.
为什么紧密循环很重要的是现代cpu可以执行指令通常比从内存加载要引用的代码(比如用于比较)的相关值更快.为了实现他们实现的超快速度,cpu执行了许多技巧,包括流水线操作,分支预测等.紧密循环通常是流水线操作的祸根,如果值之间存在依赖关系,则实际上分支预测可能只是略微有用.
从根本上说,遍历循环有四个主要块:
1. If `node` is null,exit the loop. 2. If `node.age` > 999999,exit the loop. 3a. set prev = node 3b. set node = node.next
其中每个都由几个汇编程序指令表示,但Go和C输出的块的顺序不同. C有效地按顺序3a,1,2,3b进行. Go版本按顺序3,1执行.(它在段2上启动第一个循环以避免在空检查之前发生分配)
实际上,clang输出的指令比Go少一些,并且应该执行更少的RAM访问(以另外一个浮点寄存器为代价).可以想象,仅在不同的顺序中执行几乎相同的指令应该花费相同的时间,但是这没有考虑流水线和分支预测.
Takeaways One可能会试图手动优化此代码并编写汇编,如果它是一个关键但很小的循环.忽略了显而易见的原因(它更危险/更复杂/更容易出现错误)还要考虑到,虽然Go生成的代码对于我测试过的两个Intel x86-64处理器来说速度更快,但有可能是AMD处理器你会得到相反的结果.使用N第1代英特尔也可能会得到不同的结果.
我的全面调查如下:
调查
注意我已尽可能缩短示例,包括截断文件名,并从汇编列表中删除多余的绒毛,因此您的输出可能与我的略有不同.但无论如何,我继续.
所以我跑去构建-gcflags -S main.go来获得这个汇编列表,我只是真的在看iterateAndplace.
"".iterateAndplace STEXT nosplit size=56 args=0x8 locals=0x0
00000 (main.go:16) TEXT "".iterateAndplace(SB),NOSPLIT,$0-8
00000 (main.go:16) FUNCDATA $0,gclocals·2a5305abe05176240e61b8620e19a815(SB)
00000 (main.go:16) FUNCDATA $1,gclocals·33cdeccccebe80329f1fdbee7f5874cb(SB)
00000 (main.go:17) MOVQ "".nodes(SB),AX
00007 (main.go:17) MOVL $0,CX
00009 (main.go:20) JMP 20
00011 (main.go:25) MOVQ (AX),DX
00014 (main.go:25) MOVQ AX,CX
00017 (main.go:25) MOVQ DX,AX
00020 (main.go:20) TESTQ AX,AX
00023 (main.go:20) JEQ 44
00025 (main.go:21) MOVSD 8(AX),X0
00030 (main.go:21) MOVSD $f64.40f869f000000000(SB),X1
00038 (main.go:21) UCOMISD X1,X0
00042 (main.go:21) JLS 11
00044 (main.go:21) MOVSD "".age+8(SP),X0
00050 (main.go:28) MOVSD X0,8(CX)
00055 (main.go:29) RET
如果您丢失了上下文,我会将原始列表与行号粘贴在一起:
16 func iterateAndplace(age float64) {
17 node := nodes
18 var prev *Node = nil
19
20 for node != nil {
21 if node.age > 99999 {
22 break
23 }
24 prev = node
25 node = node.next
26 }
27
28 prev.age = age
29 }
我立即注意到一些有趣的事情:
>它没有为第24行生成任何代码,prev = node.这是因为它意识到赋值可以被欺骗:在遍历获取node.next时它使用CX寄存器,即prev的值.这可能是一个很好的优化,SSA编译器可以实现冗余.
>对node.age的if语句检查被重新排序为在node = node.nextstuff之后,在第一次迭代时被跳过.在这种情况下,您可以将此视为更像do..while循环.整体较小,因为它只是真正改变了第一次迭代.但也许这就足够了?
所以让我们跳转到C程序集,你可以从clang -S -mllvm –x86-asm-Syntax = intel -O3 minimal.cpp获得.
.quad 4681608292164698112 ## double 99999
# note I snipped some stuff here
__Z15iterateAndplaced: ## @_Z15iterateAndplaced
## BB#0:
push rbp
Lcfi0:
.cfi_def_cfa_offset 16
Lcfi1:
.cfi_offset rbp,-16
mov rbp,rsp
Lcfi2:
.cfi_def_cfa_register rbp
mov rcx,qword ptr [rip + _nodes]
xor eax,eax
movsd xmm1,qword ptr [rip + LCPI0_0] ## xmm1 = mem[0],zero
.p2align 4,0x90
LBB0_2: ## =>This Inner Loop Header: Depth=1
mov rdx,rax
mov rax,rcx
movsd xmm2,qword ptr [rax + 8] ## xmm2 = mem[0],zero
ucomisd xmm2,xmm1
ja LBB0_3
## BB#1: ## in Loop: Header=BB0_2 Depth=1
mov rcx,qword ptr [rax]
test rcx,rcx
mov rdx,rax
jne LBB0_2
LBB0_3:
movsd qword ptr [rdx + 8],xmm0
pop rbp
ret
这真的很有趣.生成的程序集总体上非常相似(忽略汇编程序列出语法的细微差别) – 它进行了类似的优化,不分配prev.此外,C似乎已经消除了每次比较完成时加载99999的需要(Go版本在每次比较之前加载它).
出于复制目的,我使用的东西版本(在OSX High Sierra上的x86-64 darwin mac上)
$go version go version go1.9.3 darwin/amd64 $clang++ --version Apple LLVM version 9.0.0 (clang-900.0.39.2) Target: x86_64-apple-darwin17.4.0