把一种算法的计算量或者占用空间的大小,写成
N
N
N的一个函数
f
(
N
)
f(N)
f(N);
函数的边界(上界或者下界)可以用数学上的大O概念来限制: 两个函数
f
(
N
)
f(N)
f(N)和
g
(
N
)
g(N)
g(N),在
N
N
N趋近于无穷大时比值只差一个常数,则可以被看成同一个数量级的函数。 在计算机科学中相应的算法被认为是具有相同的复杂度。
一个算法的复杂度由一高一低的两部分
f
(
N
)
f(N)
f(N)和
g
(
N
)
g(N)
g(N)组成,即
f
(
N
)
+
g
(
N
)
f(N)+g(N)
f(N)+g(N),后面数量级低的那部分可以直接省略,也就是说
O
(
f
(
N
)
+
g
(
N
)
)
=
O
(
f
(
N
)
)
O(f(N)+g(N))=O(f(N))
O(f(N)+g(N))=O(f(N))。 其目的是让计算机科学家们能够把注意力放在数量级的差异上。