算法的时间复杂度

时间复杂度定义

在进行算法分析时,语句总的执行次数T(n) 是关于问题规模n 的函数,进而分析T(n)随n 的变化情况而确定T(n)的数量级。
算法的时间复杂度,也就是算法的时间量度,记作T(n) = O(f(n))。它表示随问题规模n 的增大,算法执行时间的增长率和
f(n) 的增长率相同。f(n) 是问题规模n 的某个函数。

这种使用大写O来体现算法时间复杂度的记法,我们称之为大O记法。一般而言,随着n的增大,T(n) 增长最慢的算法为最优算法,如O(1)。

推导大O阶方法

1 用常数1取代运行时间中的所有加法常数。f(n) = 6 -> f(n) = 1
2 在修改后的运行次数函数中,只保留最高级阶项。 f(n) = n² + n -> f(n) = n²
3 如果最高次项存在且不是1,则去除与这个项相乘的常数。f(n) => n²/2 -> f(n) = n²

常数阶

不论n的大小,运行次数恒定的算法,我们称之为具有O(1)的时间复杂度,又为常数阶。如hash算法,即为f(n) = 1。

线性阶

运行次数与n的大小呈线性关系,我们称之为具有O(n) 的时间复杂度,又称线性阶。如遍历一个集合,即为f(n) = n。

对数阶

运行次数与n 的大小呈对数关系,我们称之为具有O(logn)的时间复杂度,又称对数阶。
如下程序,f(n) = log2n, 时间复杂度为O(n) = logn。

int count =1;
while(count < n) {
  count = count *2;
}

平方阶

运行次数与n 的大小呈平方阶关系,我们称之为O(n2)的时间复杂度,又称平方阶。如等比数列。

常见的时间复杂度

| 执行函数 | 阶 |
| ---- | ---- | ---- |
| 19 | O(1) |
| n + 1 | O(n) |
| n² + 1 | O(n2) |
| 3log2n + 2 | O(logn) |
| n + nlog2n | O(nlogn) |
| n³ + n | O(n³) |

时间复杂度大小依此为:
O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n³)

posted @   cd_along  阅读(674)  评论(0编辑  收藏  举报
编辑推荐:
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 一个奇形怪状的面试题:Bean中的CHM要不要加volatile?
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
点击右上角即可分享
微信分享提示