时间复杂度
时间复杂度(Time Complexity)定义:
一、时间频度:
一个算法执行所消耗的时间,从理论上是不能算出来的,必须上机运行测试才能知道。
但我们不可能也没有必要对每个算法都上机测试。
一个算法花费的时间与算法中语句执行次数成正比,哪个算法中语句执行次数多,它花费时间就多。
一个算法中的语句执行次数称为语句频度或者称为时间频度,表示为T(n),T表示时间,n表示问题的规模
二、时间复杂度:
有时我们想知道它的变化时呈现什么规律,想知道问题的规模,而不是具体的次数,此时引入时间复杂度。
一般情况下,算法中基本操作重复执行的次数是问题规模n的某个函数,用T(n)表示。
若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数
记作T(n)=O(f(n)),称O(f(n))为算法的渐进时间复杂度,简称时间复杂度。
T(n)=O(f(n))
或者说:时间复杂度就是时间频度去掉低阶项和首项常数
注意:时间频度与时间复杂度是不同的,时间频度不同但时间复杂度可能相同。
比如:有三个算法的时间频度是:
T(n) = 100000n2 + 10n + 6
T(n) = 10n2 + 10n + 6
T(n) = n2
以上的三个算法的时间复杂度均为T(n) = O(n2)
最坏时间复杂度和平均时间复杂度:
最坏情况下的时间复杂度称为最坏时间复杂度。一般不特别说明,讨论的时间复杂度均是最坏情况下的时间复杂度。
这样做的原因是:最坏情况下的时间复杂度是算法在任何输入实例上运行时间的上界,这就保证了算法的运行时间不会比任何更长。
在最坏情况下的时间复杂度为T(n)=O(n),它表示对于任何输入实例,该算法的运行时间不可能大于O(n)。
平均时间复杂度是指所有可能的输入实例以均等概率出现的情况下,算法的期望运行时间。鉴于平均复杂度
第一,难计算
第二,有很多算法的平均情况和最差情况的复杂度是一样的。
所以一般讨论最坏时间复杂度
比如我要求你在字典里查询一个字,并且告诉我这个字在字典的哪一页。
如果一页一页的翻,你需要翻多久?
最优的情况就是这个字在第一页
最坏的情况就是这个字是整本字典的最后一个字
即使故意为难,让你去找的字在字典的最后一页,你也不会花费比从字典的第一页的第一个字一直找到字典的最后一页的最后一个字还要长的时间。
当然,你也可以通过偏旁部首去查找这个字,此时就会涉及到最优的一个方案。
为了进一步说明算法的时间复杂度,我们定义O、Ω、θ符号。
O符号给出了算法时间复杂度的上界
(最坏情况 <= ,比如T(n) = O(n2)
Ω符号给出了时间复杂度的下界
(最好情况 >= ,比如T(n) = Ω(n2)
Θ给出了算法时间复杂度的精确阶(最好和最坏是同一个阶 = )
比如T(n) = Θ(n2)
时间复杂度计算:
根本没有必要计算时间频度,即使计算处理还要忽略常量、低次幂和最高次幂的系数,所以可以采用如下简单方法:
(1)找出算法中的基本语句:
算法中执行次数最多的那条语句就是基本语句,通常是最内层循环的循环体
(2)计算基本语句的执行次数的数量级:
只需计算基本语句执行次数的数量级,这就意味着只要保证基本语句执行次数的函数中的最高次幂正确即可。
可以忽略所有低次幂和最高次幂的系数。这样能够简化算法分析,并且使注意力集中在最重要的一点上:增长率
(3)用O记号表示算法的时间性能:
将基本语句执行次数的数量级放入O记号中。
时间复杂度举例:
1.一个简单语句的时间复杂度为O(1)。
如:
1 int count = 0;
解释:
基本语句是int count = 0;
执行了一次
T(n) = 1
T(n) = O(1)
100个简单语句的时间复杂度也为O(1)。
2.一个循环的时间复杂度为O(n)。
int n = 8,count = 0; for(int i=1;i<=n;i++){ count++; }
解释:
count++;一共执行了n次
所以
T(n) = n
T(n) = O(n)
查找和排序算法会大量的涉及时间复杂度,作为选择查找和排序算法的重要依据
常用的时间复杂度级别:
常数阶O(1)
对数阶O(log2N)
线性阶O(n)
线性对数阶O(n*log2N)
平方阶O(n2)
立方阶O(n3)
k次方阶O(nk)
指数阶O(2n)
阶乘阶O(n!)
时间复杂度级别越高,执行效率越低
编写代码时一定要注意时间复杂度的级别控制,好的代码编写习惯会让你的程序更加优美的奔跑起来