大话数据结构学习笔记(二)——算法

1 算法定义

算法:算法是解决特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每一条指令表示一个或多个操作。

什么是算法呢?算法是描述解决问题的方法。算法(Algorithm)这个单词最早出现在波斯数学家阿勒·花刺子密在公元825年(相当于我们中国的唐朝时期)所写的《印度数字算术》中。如今普遍认可的对算法的定义是:

算法是解决特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作。

现实世界中的问题千奇百怪,算法当然也就千变万化,没有通用的算法可以解决所有的问题。 甚至解决一个小问题,很优秀的算法却不一定适合它。
算法定义中,提到了指令,指令能被人或机器等计算装置执行。它可以是计算机指令,也可以是我们平时的语言文字。
为了解决某个或某类问题,需要把指令表示成一定的操作序列,操作序列包括一组操作,每一个操作都完成特定的功能,这就是算法了。

2 算法的特性

算法具有五个基本特性:输入、输出、有穷性、确定性和可行性。

2.1 输入输出

输入和输出特性比较容易理解,算法具有零个或多个输入,且具有一个或多个输出。

2.2 有穷性

有穷性:指算法在执行有限的步骤之后,自动结束而不会出现无限循环,并且每一个步骤在可接受的时间内完成。

现实中经常会写出死循环的代码,这就是不满足有穷性。当然这里有穷的概念并不是纯数学意义
的,而是在实际应用当中合理的、可以接受的“有边界”。你说你写一个算法,计算机需要算上个二十年,一定会结束,它在数学意义上是有穷了,可是媳妇都熬成婆了,算法的意义也不就大了。

2.3 确定性

确定性:算法的每一步骤都具有确定的含义,不会出现二义性。

算法在一定条件下,只有一条执行路径,相同的输入只能有唯一的输出结果。算法的每个步骤被精确定义而无歧义。

2.4 可行性

可行性:算法的每一步都必须是可行的,也就是说,每一步都能够通过执行有限次数完成。

3 算法设计的要求

3.1 正确性

正确性:算法的正确性是指算法至少应该具有输入、输出和加工处理无歧义性、能正确反映问题的需求、能够得到问题的正确答案。

但是算法的“正确”通常在用法上有很大的差别,大体分为以下四个层次。

  1. 算法程序没有语法错误。
  2. 算法程序对于合法的输入数据能够产生满足要求的输出结果。
  3. 算法程序对于非法的输入数据能够得出满足规格说明的结果。
  4. 算法程序对于精心选择的,甚至***难的测试数据都有满足要求的输出结果。

对于这四层含义,层次1要求最低,但是仅仅没有语法错误实在谈不上是好算法。 这就如同仅仅解决温饱,不能算是生活幸福一样。而层次4是最困难的,我们几乎不可能逐一验证所有的输入都得到正确的结果。

因此算法的正确性在大部分情况下都不可能用程序来证明,而是用数学方法证明的。证明一个复杂算法在所有层次上都是正确的,代价非常昂贵。所以一般情况下,我们把层次3作为一个算法是否正确的标准。

3.2 可读性

可读性:算法设计的另一目的是为了便于阅读、理解和交流。

可读性高有助于人们理解算法,晦涩难懂的算法往往隐含错误,不易被发现,并且难于调试和修改。

3.3 健壮性

健壮性:当输入数据不合法时,算法也能做出相关处理,而不是产生异常或莫名其妙的结果。

一个好的算法还应该能对输入数据不合法的情况做合适的处理。比如输入的时间或者距离不应该是负数等。

3.4 时间效率高和存储量低

时间效率指的是算法的执行时间,对于同一个问题,如果有多个算法能够解决,执行时间短的算法效率高,执行时间长的效率低。

存储量需求指的是算法在执行过程中需要的最大存储空间,主要指算法程序运行时所占用的内存或外部硬盘存储空间。

4 算法效率的度量方法

4.1 事后统计法

事后统计方法:这种方法主要是通过设计好的测试程序和数据,利用计算机计时器对不同算法编制的程序的运行时间进行比较,从而确定算法效率的高低。

但这种方法显然是有很大缺陷的(不科学、不准确):

  • 必须依据算法事先编制好程序,这通常需要花费大量的时间和精力。
  • 时间的比较依赖计算机硬件和软件等环境因素,有时会掩盖算法本身的优劣。
  • 算法的测试数据设计困难,并且程序的运行时间往往还与测试数据的规模有很大关系,效率高的算法在小的测试数据面前往往得不到体现。

4.2 事前估算分析法

事前分析估算方法:在计算机程序编制前,依据统计方法对算法进行估算。

经过分析,我们发现,一个用高级程序语言编写的程序在计算机上运行时所消耗的时间取决于下列因素:

  1. 算法采用的策略、方法。
  2. 编译产生的代码质量。
  3. 问题的输入规模。
  4. 机器执行指令的速度。

第1条当然是算法好坏的根本,第2条要由软件来支持,第4条要看软件的性能。也就是说,抛开这些与计算机硬件、软件有关的因素,一个程序的运行时间,依赖于算法的好坏和问题的输入规模。所谓问题的输入规模是指输入量的多少

下面举例两种求和的算法。

第一种算法

int i, sum = 0, n = 100; // 执行1次
for (i = 1; i <= n; i ++) //执行n+1次
{
    sum = sum + i; // 执行n次
}
printf("%d", sum); // 执行1次

第二种算法

int sum = 0, n = 100; // 执行1次
sum = (1 + n) * n / 2; // 执行1次
printf("%d", sum); // 执行1次

显然,第一种算法,执行了1+(n+1)+n+1=2n+3次;而第二种算法,是1+1+1=3次。我们关注中间代码的部分,将循环看做一个整体,忽略头尾循环判断的开销,那么这两个算法其实就是n次与1次的差距。算法好坏显而易见。

我们再来延伸一下上面这个例子。

第三种算法

int i, j, x = 0, sum = 0, n = 100; // 执行1次
for (i = 1; i <= n; i ++)
{
    for (j = 1; j <= n; j ++)
    {
        x ++; // 执行n×n次
        sum = sum + x;
    }
}
printf("%d", sum); // 执行1次

在这个例子中,循环部分的代码整体需要执行n^2次。显然这个算法的执行次数对于同样的输入规模n=100,要多于前面两种算法,这个算法的执行时间随着n的增加也将远远多于前面两个。

此时你会看到,测试运行时间最可靠的方法就是计算对运行时间有消耗的基本操作的执行次数。运行时间与这个计数成正比。

5 函数的渐近增长

我们给出这样的定义,输入规模n在没有限制的情况下,只要超过一个数值N,这个函数就总是大于另一个函数,我们称函数是渐近增长的。
函数的渐近增长:给定两个函数f(n)g(n),如果存在一个整数N,使得对于所有的n>Nf(n)总是比g(n)大,那么我们可以说f(n)的增长渐近快于g(n)

判断一个算法的效率时,函数中的常数和其他次要项常常可以忽略,而更应该关注主项(最高阶项)的阶数。

判断一个算法好不好,我们只通过少量的数据是不能做出准确判断的。如果我们可以对比这几个算法的关键执行次数函数的渐近增长性,基本就可以分析出:某个算法,随着n的增大,它会越来越优于另一算法,或者越来越差于另一算法。这其实就是事前估算方法的理论依据,通过算法时间复杂度来估算算法时间效率。

6 算法时间复杂度

6.1 算法时间复杂度定义

在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)n的变化情况并确定T(n)的数量级。

算法的时间复杂度,也就是算法的时间量度,记作:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。

这样用大写O(n)来体现算法时间复杂度的记法,我们称之为大O记法
一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。
显然,由此算法时间复杂度的定义可知,我们的三个求和算法的时间复杂度分别为O(n)O(1)O(n^2)。我们分别给它们取了非官方的名称,O(1)常数阶O(n)线性阶O(n^2)平方阶,当然,还有其他的一些阶,我们之后会介绍。

6.2 推导大O阶方法

推导大O阶

  1. 用常数1取代运行时间中的所有加法常数。
  2. 在修改后的运行次数函数中,只保留最高阶项。
  3. 如果最高阶项存在且不为1,这去除与这个项相乘的常数。

6.3 常数阶

首先说顺序结构的时间复杂度。下面这个算法,也就是刚才的第二种算法(高斯算法),为什么时间复杂度不是O(3),而是O(1)

int sum = 0, n = 100; // 执行1次
sum = (1 + n) * n / 2; // 执行1次
printf("%d", sum); // 执行1次

这个算法的运行次数函数是f(n)=3。 根据我们推导大O阶的方法, 第一
步就是把常数项3改为1。 在保留最高阶项时发现, 它根本没有最高阶
项, 所以这个算法的时间复杂度为O(1)

这种与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度, 又叫常数阶
注意:不管这个常数是多少,我们都记作O(1),而不能是O(3)O(12)等其他任何数字, 这是初学者常常犯的错误。
对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)

6.4 线性阶

线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
下面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码须要执行n次。

int i;
for (i = 0; i < n; i ++)
{
    /* 时间复杂度为O(1)的程序步骤序列 */
}

6.5 对数阶

下面的这段代码,时间复杂度又是多少呢?

int count = 1;
while (count < n)
{
    count = count * 2;
    /* 时间复杂度为O(1)的程序步骤序列 */
}

由于每次count乘以2之后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2^x = n得到x=log2(n)。所以这个循环的时间复杂度为O(logn)

6.6 平方阶

下面例子是一个循环签到,它的内循环刚才我们已经分析过,时间复杂度为O(n)

int i, j; 
for (i = 0; i < n; i ++)
{
    for (j = 0; j < n; j ++)
    {
        /* 时间复杂度为O(1)的程序步骤序列 */
    }
}

而对于外层的循环,不过是内部这个时间复杂度为O(n)的语句再循环n次,所以这段代码的时间复杂度为O(n^2)

如果外循环的循环次数改为了m,时间复杂度就变为O(m×n)

int i, j; 
for (i = 0; i < m; i ++)
{
    for (j = 0; j < n; j ++)
    {
        /* 时间复杂度为O(1)的程序步骤序列 */
    }
}

所以我们可以总结得出,循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数。
那么下面这个循环嵌套,它的时间复杂度是多少呢?

int i, j; 
for (i = 0; i < n; i ++)
{
    // 注意 j = i 而不是0
    for (j = i; j < n; j ++) {
        /* 时间复杂度为O(1)的程序步骤序列 */
    }
}

由于当i=0时,内循环执行了n次, 当i=1时,执行了n-1次,……当i=n-1时, 执行了1次。所以总的执行次数为:

n+(n1)+(n2)+......+1=n(n+1)2=n22+n2

用我们推导大O阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项, 因此保留n^2/2;第三条,去除这个项相乘的常数,也就是去除1/2,最终这段代码的时间复杂度为O(n^2)

从这个例子,我们也可以得到一个经验,其实理解大O推导不算难,难的是对数列的一些相关运算,这更多的是考察你的数学知识和能力,所以想考研的朋友,要想在求算法时间复杂度这里不失分,可能需要强化你的数学,特别是数列方面的知识和解题能力。
我们继续看例子,对于方法调用的时间复杂度又如何分析。

int i, j;
for (i = 0; i < n; i ++)
{
    function(i);
}

上面这段代码调用一个函数function

void function(int count)
{
    print(count);
}

函数体是打印这个参数。其实这很好理解,function函数的时间复杂度是O(1)。所以整体的时间复杂度为O(n)
假如function是下面这样的:

void function(int count)
{
    int j;
    for (j = count; j < n; j ++) {
        /* 时间复杂度为O(1)的程序步骤序列 */
    }
}

事实上,这和刚才举的例子是一样的,只不过把嵌套内循环放到了函数中,所以最终的时间复杂度为O(n^2)

下面这段相对复杂的语句:

n ++; 					 // 执行次数为1
function(n); 			 // 执行次数为n
int i, j;
for (i = 0; i < n; i ++) // 执行次数为n^2
{
    function(i);
}
for (i = 0; i < n; i ++) // 执行次数为n(n+1)/2
{
    for (j = i; j < n; j ++)
    {
        /* 时间复杂度为O(1)的程序步骤序列 */
    }
}

它的执行次数f(n)=1+n+n^2+n(n+1)/2=3/2·n^2+3/2·n+1,根据推导大O阶的方法,最终这段代码的时间复杂度也是O(n^2)

6.7 常见的时间复杂度

执行次数 函数阶 非正式术语
12 O(1) 常数阶
2n+3 O(n) 线性阶
3n^2+2n+1 O(n^2) 平方阶
5log2(n)+20 O(logn) 对数阶
2n+3nlog2(n)+19 O(nlogn) nlogn阶
6n3+2n2+3n+4 O(n^3) 立方阶
2^n O(2^n) 指数阶

常用的时间复杂度所耗费的时间从小到大依次是:

O(1)<O(logn)<O(n)<O(nlogn)<O(n2)<O(n3)<O(2n)<O(n!)<O(nn)

我们前面已经谈到了O(1)常数阶、O(logn)对数阶、O(n)线性阶、O(n^2)平方阶等,至于O(nlogn)我们将会在今后的课程中介绍,而像O(n^3),过大的n都会使得结果变得不现实。同样指数阶O(2^n)和阶乘阶O(n!)等除非是很小的n值,否则哪怕n只是100,都是噩梦般的运行时间。所以这种不切实际的算法时间复杂度,一般我们都不去讨论它。

6.8 最坏情况与平均情况

找东西有运气好的时候,也有怎么也找不到的情况。但在现实中,通常我们碰到的绝大多数既不是最好的也不是最坏的,所以算下来是平均情况居多。
算法的分析也是类似,我们查找一个有n个随机数字数组中的某个数字,最好的情况是第一个数字就是,那么算法的时间复杂度为O(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是O(n),这是最坏的一种情况了。
最坏情况运行时间是一种保证,那就是运行时间将不会再坏了。在应用中,这是一种最重要的需求,通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。
而平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为n/2次后发现这个目标元素。
平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。也就是说,我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。
对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度一般在没有特殊说明的情况下,都是指最坏时间复杂度。

6.9 算法空间复杂度

算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作:S(n)=O(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。

一般情况下,一个程序在机器上执行时,除了需要存储程序本身的指令、常数、变量和输入数据外,还需要存储对数据操作的存储单元。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为O(1)
通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。

6.10 总结回顾

posted @   JapserTang  阅读(193)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
Live2D
欢迎阅读『大话数据结构学习笔记(二)——算法』
点击右上角即可分享
微信分享提示