算法的时间复杂度
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,基座T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐进算法时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
一般用大写O()来表示算法的时间复杂度写法,通常叫做大O记法。
一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。
O(1):常数阶
O(n):线性阶
O(n2):平方阶
大O推导法:
用常数1取代运行时间中的所有加法常数
在修改后的运行函数中,只保留最高阶项
如果最高阶项存在且不是1,则去除与这个项相乘的常数
计算 1 + 2 + 3 + 4 + ...... + 100。代码如下,之前也有讲过:
#include "stdio.h"
int main()
{
int i, sum = 0, n = 100; /* 执行1次 */
for( i = 1; i <= n; i++) /* 执行 n+1 次 */
{
sum = sum + i; /* 执行n次 */
//printf("%d \n", sum);
}
printf("%d", sum); /* 执行1次 */
}
从代码附加的注释可以看到所有代码都执行了多少次。那么这写代码语句执行次数的总和就可以理解为是该算法计算出结果所需要的时间。该算法所用的时间(算法语句执行的总次数)为: 1 + ( n + 1 ) + n + 1 = 2n + 3
而当 n 不断增大,比如我们这次所要计算的不是 1 + 2 + 3 + 4 + ...... + 100 = ? 而是 1 + 2 + 3 + 4 + ...... + n = ?其中 n 是一个十分大的数字,那么由此可见,上述算法的执行总次数(所需时间)会随着 n 的增大而增加,但是在 for 循环以外的语句并不受 n 的规模影响(永远都只执行一次)。所以我们可以将上述算法的执行总次数简单的记做: 2n 或者简记 n
这样我们就得到了我们设计的算法的时间复杂度,我们把它记作: O(n)
再来看看高斯的算法:
#include "stdio.h"
int main()
{
int sum = 0, n = 100; /* 执行1次 */
sum = (1 + n) * n/2; /* 执行1次 */
printf("%d", sum); /* 执行1次 */
}
这个算法的时间复杂度: O(3),但一般记作 O(1)。
从感官上我们就不难看出,从算法的效率上看,O(3) < O(n) 的,所以高斯的算法更快,更优秀。
常数阶:
int sum = 0 ; n = 100; /*执行一次*/
sum = (1+n)*n/2; /*执行一次*/
printf("%d",sum); /*执行一次*/
这个算法的运行次数f(n) = 3,根据推导大O阶的方法,第一步是将3改为1,在保留最高阶项是,它没有最高阶项,因此这个算法的时间复杂度为O(1);
另外,
int sum = 0 ; n = 100; /*执行一次*/
sum = (1+n)*n/2; /*执行第1次*/
sum = (1+n)*n/2; /*执行第2次*/
sum = (1+n)*n/2; /*执行第3次*/
sum = (1+n)*n/2; /*执行第4次*/
sum = (1+n)*n/2; /*执行第5次*/
sum = (1+n)*n/2; /*执行第6次*/
sum = (1+n)*n/2; /*执行第7次*/
sum = (1+n)*n/2; /*执行第8次*/
sum = (1+n)*n/2; /*执行第9次*/
sum = (1+n)*n/2; /*执行第10次*/
printf("%d",sum); /*执行一次*/
上面的两段代码中,其实无论n有多少个,本质是是3次和12次的执行差异。这种与问题的大小无关,执行时间恒定的算法,成为具有O(1)的时间复杂度,又叫做常数阶。
注意:不管这个常数是多少,3或12,都不能写成O(3)、O(12),而都要写成O(1)
此外,对于分支结构而言,无论真假执行的次数都是恒定不变的,不会随着n的变大而发生变化,所以单纯的分支结构(不在循环结构中),其时间复杂度也是O(1)。
线性阶:
线性阶的循环结构会复杂一些,要确定某个算法的阶次,需要确定特定语句或某个语句集运行的次数。因此要分析算法的复杂度,关键是要分析循环结构的运行情况。
int i;
for(i = 0 ; i < n ; i++){
/*时间复杂度为O(1)的程序*/
}
对数阶:
int count = 1;
while(count < n){
count = count * 2;
/*时间复杂度为O(1)的程序*/
}
因为每次count*2后,距离结束循环更近了。也就是说有多少个2 相乘后大于n,退出循环。
数学公式:2x = n --> x = log2n
因此这个循环的时间复杂度为O(logn)
平方阶:
int i;
for(i = 0 ; i < n ; i++){
for(j = 0 ; j < n ; j++){
/*时间复杂度为O(1)的程序*/
}
}
上面的程序中,对于对于内层循环,它的时间复杂度为O(n),但是它是包含在外层循环中,再循环n次,因此这段代码的时间复杂度为O(n2)。
int i;
for(i = 0 ; i < n ; i++){
for(j = 0 ; j < m ; j++){
/*时间复杂度为O(1)的程序*/
}
}
但是,如果内层循环改成了m次,时间复杂度就为O(n*m)
再来看一段程序:
int i;
for(i = 0 ; i < n ; i++){
for(j = i ; j < n ; j++){
/*时间复杂度为O(1)的程序*/
}
}
注意:上面的内层循环j = i ;而不是0
因为i = 0时,内层循环执行了n次,当i=1时,执行了n-1次……当i=n-1时,执行了1次,所以总的执行次数为:
n+(n-1)+(n-1)+...+1 = n(n+1)/2 = n2/2 + n/2
根据大O推导方法,保留最高阶项,n2/2 ,然后去掉这个项相乘的常数,1/2
因此,这段代码的时间复杂度为O(n2)
下面,分析调用函数时的时间复杂度计算方法:
首先,看一段代码:
int i,j;
void function(int count){
print(count);
}
for(i = 0 ; i < n ; i++){
function (i)
}
函数的时间复杂度是O(1),因此整体的时间复杂度为O(n)。
假如function是这样的:
void function(int count){
int j;
for(j = count ; j < n ;j++){
/*时间复杂度为O(1)的程序*/
}
}
和第一个的不同之处在于把嵌套内循环放到了函数中,因此最终的时间复杂度为O(n2)
再来看一个比价复杂的语句:
n++; /*执行次数为1*/
function(n); /*执行次数为n*/
int i,j;
for(i = 0 ; i < n ; i++){ /*执行次数为nXn*/
function(i);
}
for(i = 0 ; i < n ; i++){ /*执行次数为n(n+1)/2*/
for(j = i ; j < n ; j++){
/*时间复杂度为O(1)的程序*/
}
}
它的执行次数f(n) = 1 + n + n2 + n(n+1)/2 + 3/2n2+3/2 n+1,
根据推导大O阶的方法,最终它的时间复杂度为:O(n2)
常见的时间复杂度:
执行次数函数 | 阶 | 术语描述 |
12 | O(1) | 常数阶 |
2n+3 | O(n) | 线性阶 |
3n2+2n+1 | O(n2) | 平方阶 |
5log2n+20 | O(log2n) | 对数阶 |
2n+3nlog2n+19 | O(nlogn) | nlog2n阶 |
6n3+2n2+3n+4 | O(n3) | 立方阶 |
2n | O(2n) | 指数阶 |
时间复杂度所耗费的时间是:
O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n3) <O(2n) < O(n!) <O(nn)