时间复杂度

概念
算法的时间复杂度,是一个用于度量一个算法的运算时间的一个描述,本质是一个函数,根据这个函数能在不用具体的测试数据来测试的情况下,粗略地估计算法的执行效率,换句话讲时间复杂度表示的只是代码执行时间随数据规模增长的变化趋势。

 

常用大O来表述,这个函数描述了算法执行所要时间的增长速度,记作f(n)。算法需要执行的运算次数(用函数表示)记作T(n)。存在常数 c 和函数 f(n),使得当 n >= c 时 T(n) <= f(n),记作 T(n) = O(f(n)),其中,n代表数据规模也就是输入的数据。常见排序复杂度如图:

 

 举例:

3个分析时间复杂度的方法
最大阶法则:忽略式子中的常量,低阶,系数,只计算最大阶的量级。
说白了就只关注循环次数最多的代码段。

 int fun(int n) {
   int sum1 = 0;
   int i = 1;
   int j = 1;
   for (; i <= n; ++i) {
     sum = sum + i;
   }
   for (; i <= n; ++i) {
        for (; i <= n; ++i) {
             sum + = i+j;
           }
   }
   return sum;
 }

代码本身没有意义,只是为了举例,上述代码的时间复杂度为O(n²)。

 

 

 

 

 

参考:https://blog.csdn.net/qq_41297896/article/details/104223612

posted on 2022-05-28 19:09  周公  阅读(91)  评论(0编辑  收藏  举报

导航