数据结构与算法之美学习笔记:第十二讲
一、课前问题
上一节我讲了冒泡排序、插入排序、选择排序这三种排序算法,它们的时间复杂度都是O(n ),比较高,适合小规模数据的排序。今天,我讲两种时间复杂度为O(nlogn)的排序算法,
归并排序和快速排序。这两种排序算法适合大规模的数据排序,比上一节讲的那三种排序算法要更常用。
归并排序和快速排序都用到了分治思想,非常巧妙。我们可以借鉴这个思想,来解决非排序的问题,
比如:如何在O(n)的时间复杂度内查找一个无序数组中的第K大元素? 这就要用到我们今天要讲的内容。
二、归并排序的原理
1、分治思想
我们先来看归并排序(Merge Sort)。归并排序的核心思想还是蛮简单的:
- 如果要排序一个数组,我们先把数组从中间分成前后两部分,
- 然后对前后两部分分别排序,
- 再将排好序的两部分合并在一起,这样整个数组就都有序了。
归并排序使用的就是分治思想。分治,顾名思义,就是分而治之,将一个大问题分解成小的子问题来解决。小的子问题解决了,大问题也就解决了。
从我刚才的描述,你有没有感觉到,分治思想跟我们前面讲的递归思想很像。是的,分治算法一般都是用递归来实现的。
- 分治是一种解决问题的处理思想,
- 递归是一种编程技巧,这两者并不冲突。
分治算法的思想我后面会有专门的一节来讲,现在不展开讨论,我们今天的重点还是排序算法。
2、如何用递归代码来实现归并排序。
前面我通过举例让你对归并有了一个感性的认识,又告诉你,归并排序用的是分治思想,可以用递归来实现。我们现在就来看
看如何用递归代码来实现归并排序。
我在第10节讲的递归代码的编写技巧你还记得吗?写递归代码的技巧就是:
- 分析得出递推公式,
- 然后找到终止条件,
- 最后将递推公式翻译成递归代码。
所以,要想写出归并排序的代码,我们先写出归并排序的递推公式。
递推公式: merge_sort(p…r) = merge(merge_sort(p…q), merge_sort(q+1…r)) 终止条件: p >= r 不用再继续分解
我来解释一下这个递推公式。
- merge_sort(p…r)表示,给下标从p到r之间的数组排序。
- 我们将这个排序问题转化为了两个个问题,merge_sort(p…q)和merge_sort(q+1…r),
- 其中下标q等于p和r的中间位置,也就是(p+r)/2。
- 当下标从p到q和从q+1到r这两个子数组都排好序之后,我们再将两个有序的子数组合并在一起,
- 这样下标从p到r之间的数据就也排好序了。
有了递推公式,转化成代码就简单多了。为了阅读方便,我这立只给出伪代码,你可以翻译成你熟悉的编程语言。
// 归并排序算法, A是数组,n表示数组大小 merge_sort(A, n) { merge_sort_c(A, 0, n-1) } // 递归调用函数 merge_sort_c(A, p, r) { // 递归终止条件 if p >= r then return // 取p到r之间的中间位置q q = (p+r) / 2 // 分治递归 merge_sort_c(A, p, q) merge_sort_c(A, q+1, r) // 将A[p...q]和A[q+1...r]合并为A[p...r] merge(A[p...r], A[p...q], A[q+1...r]) }
你可能已经发现了,merge(A[p…r], A[p…q], A[q+1…r])这个函数的作用就是:
- 将已经有序的A[p…q]和A[q+1…r]合并成一个有序的数组,
- 并且放入A[p…r]。那这个过程具体该如何做呢?
如图所示:
- 我们申请一个临时数组tmp,大小与A[p…r]相同。
- 我们用两个游标i和j,分别指向A[p…q]和A[q+1…r]的第一个元素。
- 比较这两个元素A[i]和A[j],如果A[i]<=A[j],我们就把A[i]放入到临时数组tmp,并且i后移一位,
- 否则将A[j]放入到数组tmp,j后移一位。
- 继续上述比较过程,直到其中一个子数组中的所有数据都放入临时数组中,
- 再把另一个数组中的数据依次加入到临时数组的末尾,
这个时候,临时数组中存储的就是两个子数组合并之后的结果了。最后再把临时数组tmp中的数据拷贝到原数组A[p…r]中。
3、图解归并过程
4、归并代码
我们把merge()函数写成伪代码,就是下面这样
merge(A[p...r], A[p...q], A[q+1...r]) { var i := p,j := q+1,k := 0 // 初始化变量i, j, k var tmp := new array[0...r-p] // 申请一个大小跟A[p...r]一样的临时数组 while i<=q AND j<=r do { if A[i] <= A[j] { tmp[k++] = A[i++] // i++等于i:=i+1 } else { tmp[k++] = A[j++] } } // 判断哪个子数组中有剩余的数据 var start := i,end := q if j<=r then start := j, end:=r // 将剩余的数据拷贝到临时数组tmp while start <= end do { tmp[k++] = A[start++] } // 将tmp中的数组拷贝回A[p...r] for i:=0 to r-p do { A[p+i] = tmp[i] } }
你还记得第7讲讲过的利用哨兵简化编程的处理技巧吗?merge()合并函数如果借助哨兵,代码就会简洁很多,这个问题留给你思考
5、python实现归并
1、实现代码
# _*_coding:utf-8_*_ # created by luoahong def merge(li, low, mid, high): i = low j = mid + 1 ltmp = [] while i<=mid and j<=high: # 只要左右两边都有数 if li[i] < li[j]: ltmp.append(li[i]) i += 1 else: ltmp.append(li[j]) j += 1 # while执行完,肯定有一部分没数了 while i <= mid: ltmp.append(li[i]) i += 1 while j <= high: ltmp.append(li[j]) j += 1 li[low:high+1] = ltmp def merge_sort(li, low, high): if low < high: #至少有两个元素,递归 mid = (low + high) //2 merge_sort(li, low, mid) merge_sort(li, mid+1, high) merge(li, low, mid, high)
2、图解代码
三、归并排序的性能分析
这样跟着我一步一步分析,归并排序是不是没那么难啦?还记得上节课我们分析排序算法的三个问题吗?接下来,我们来看归并排序的三个问题。
1、第一,归并排序是稳定的排序算法吗?
结合我前面画的那张图和归并排序的伪代码,你应该能发现,归并排序稳不稳定关键要看merge()函数,也就是两个有序子数组合并成一个有序数组的那部分代码。
在合并的过程中,如果A[p…q]和A[q+1…r]之间有值相同的元素,那我们可以像伪代码中那样,先把A[p…q]中的元素放入tmp数组。这样就保证了值相同的元素,在合并前后的先后顺序不变。
所以,归并排序是一个稳定的排序算法。
2、第二,归并排序的时间复杂度是多少?
归并排序涉及递归,时间复杂度的分析稍微有点复杂。我们正好借此机会来学习一下,如何分析递归代码的时间复杂度。
在递归那一节我们讲过,递归的适用场景是,一个问题a可以分解为多个子问题b、c,
那求解问题a就可以分解为求解问题b、c。
问题b、c解决之后,我们再把b、c的结果合并成a的结果。
如果我们定义求解问题a的时间是T(a),求解问题b、c的时间分别是T(b)和 T( c),那我们就可以得到这样的递推关系式:
T(a) = T(b) + T(c) + K
其中K等于将两个子问题b、c的结果合并成问题a的结果所消耗的时间。
从刚刚的分析,我们可以得到一个重要的结论:
不仅递归求解的问题可以写成递推公式,递归代码的时间复杂度也可以写成递推公式。
套用这个公式,我们来分析一下归并排序的时间复杂度。
- 我们假设对n个元素进行归并排序需要的时间是T(n),
- 那分解成两个子数组排序的时间都是T(n/2)。
- 我们知道,merge()函数合并两个有序子数组的时间复杂度是O(n)。
所以,套用前面的公式,归并排序的时间复杂度的计算公式就是:
T(1) = C; n=1时,只需要常量级的执行时间,所以表示为C。 T(n) = 2*T(n/2) + n; n>1
通过这个公式,如何来求解T(n)呢?还不够直观?那我们再进一步分解解下计算过程。
T(n) = 2*T(n/2) + n = 2*(2*T(n/4) + n/2) + n = 4*T(n/4) + 2*n = 4*(2*T(n/8) + n/4) + 2*n = 8*T(n/8) + 3*n = 8*(2*T(n/16) + n/8) + 3*n = 16*T(n/16) + 4*n ...... = 2^k * T(n/2^k) + k * n ......
- 通过这样一步一步分解推导,我们可以得到T(n) = 2^kT(n/2^k)+kn。
- 当T(n/2^k)=T(1)时,也就是n/2^k=1,我们得到k=log n 。
- 我们将k值代入上面的公式,得到T(n)=Cn+nlog n 。如果我们用大O标记法来表示的话,T(n)就等于O(nlogn)。
所以归并排序的时间复杂度是O(nlogn)。
从我们的原理分析和伪代码可以看出,归并排序的执行效率与要排序的原始数组的有序程度有关,所以其时间复杂度是非常稳定的,不管是最好情况、最坏情况,
还是平均情况,时间复杂度都是O(nlogn)。
第三,归并排序的空间复杂度是多少?
归并排序的时间复杂度任何情况下都是O(nlogn),看起来非常优秀。(待会会你会发现,即便是快速排序,最坏情况下,时间复杂度也是O(n )。)但是,归并排序并没有像快排那样,
应泛,这是为什么呢?因为它有一个致命的“弱点”,那就是归并排序不是原地排序算法。
这是因为归并排序的合并函数,在合并两个有序数组为一个有序数组时,需要借助额外的存储空间。这一点你应该很容易理解。
那我现在问你,归并排序的空间复杂度到底是多少呢?是O(n),还是O(nlogn),应该如何分析呢?
如果我们继续按照分析递归时间复杂度的方法,通过递推公式来求解,那整个归并过程需要的空间复杂度就是O(nlogn)。不过,类似分析时间复杂度那样来分析空间复杂度,这个思路对吗?
实际上,递归代码的空间复杂度并不能像时间复杂度那样累加。刚刚我们忘记了最重要的一点,
- 那就是,尽管每次合并操作都需要申请额外的内存空间,
- 但在合并完成之后,临时开辟的内存空间就被释放掉了。
- 在任意时刻,CPU只会有一个函数在执行,也就只会有一个临时的内存空间在使用。
临时内存空间最也不会超过n个数据的⼤⼩,所以空间复杂度是O(n)。
四、快排的原理
1、快排的核心思想
我们再来看快速排序算法(Quicksort),我们习惯性把它简称为“快排”。快排利用的也是分治思想。乍看起来,它有点像归并
排序,但是思路其实完全不一样。我们待会会讲两者的区别。现在,我们先来看下快排的核心思想。
快排的思想是这样的:
- 如果要排序数组中下标从p到r之间的一组数据,
- 我们选择p到r之间的任意一个数据作为pivot(分区点)。
- 我们遍历p到r之间的数据,将大于pivot的放到左边,将小于pivot的放到右边,
- 将pivot放到中间。经过这一步骤之后,数组p到r之间的数据就被分成了三个部分:
- 前面p到q-1之间都是大于pivot的,
- 中间是pivot,
- 后面的q+1到r之间是大于pivot的。
根据分治、递归的处理思想,我们可以用递归排序下标从p到q-1之间的数据和下标从q+1到r之间的数据,直到区间缩小为1,就说明所有的数据都有序了。
2、如何用递归代码来实现快排
如果我们用递推公式来将上面的过程写出来的话,就是这样:
递推公式: quick_sort(p…r) = quick_sort(p…q-1) + quick_sort(q+1… r) 终止条件: p >= r
我将递推公式转化成递归代码。跟归并排序一样,我还是用户伪代码来实现,你可以翻译成你熟悉的任何语言。
// 快速排序,A是数组,n表示数组的大小 quick_sort(A, n) { quick_sort_c(A, 0, n-1) } // 快速排序递归函数,p,r为下标 quick_sort_c(A, p, r) { if p >= r then return q = partition(A, p, r) // 获取分区点 quick_sort_c(A, p, q-1) quick_sort_c(A, q+1, r) }
- 归并排序中有一个merge()合并函数,我们这里有一个partition()分区函数。
- partition()分区函数实际上我们前面已经讲过了,就是随机选择一个元素作为pivot(一般情况下,可以选择p到r区间的最后一个元素),
- 然后对A[p…r]分区,函数返回pivot的下标。
如果我们不考虑空间消耗的话:
- partition()分区函数可以写得非常简单。我们申请两个临时数组X和Y,
- 遍历A[p…r],将小于pivot的元素都拷贝到临时数组X,
- 将大于pivot的元素都拷贝到临时数组Y,最后再将数组X和数组Y中数据顺序拷贝到A[p…r]。
但是,如果按照这种思路实现的话,partition()函数就需要很多额外的内存空间,
所以快排就不是原地排序算法了。如果我们希望快排是原地排序算法,那它的空间复杂度得是O(1),
那partition()分区函数就不能占用太多额外的内存空间,我们就需要在A[p…r]的原地完成分区操作。
3、快排实现代码
原地分区函数的实现思路非常巧妙,我写成了伪代码,我们一起来看一下。
partition(A, p, r) { pivot := A[r] i := p for j := p to r-1 do { if A[j] < pivot { swap A[i] with A[j] i := i+1 } } swap A[i] with A[r] return i
这里的处理有点类似选择排序。我们通过游标i把A[p…r-1]分成两部分。
- A[p…i-1]的元素都是小于pivot的,我们暂且叫它“已处理区间”,
- A[i…r-1]是“未处理区间”。我们每次都从未处理的区间A[i…r-1]中取一个元素A[j],
- 与pivot对比,如果大于pivot,则将其加入到已处理区间的尾部,也就是A[i]的位置。
4、python实现
1、代码
def partition(li, left, right): tmp = li[left] while left < right: while left < right and li[right] >= tmp: #从右面找比tmp小的数 right -= 1 # 往左走一步 li[left] = li[right] #把右边的值写到左边空位上 # print(li, 'right') while left < right and li[left] <= tmp: left += 1 li[right] = li[left] #把左边的值写到右边空位上 # print(li, 'left') li[left] = tmp # 把tmp归位 return left def _quick_sort(li, left, right): if left<right: # 至少两个元素 mid = partition(li, left, right) _quick_sort(li, left, mid-1) _quick_sort(li, mid+1, right)
2、代码图解
4、图解快排过程
数组的插入操作还记得吗?在数组某个位置插入元素,需要搬移数据,非常耗时。当时我们也讲了一种处理技巧,
- 就是交换,在O(1)的时间复杂度内完成插入操作。这里我们也借助这个思想,只需要将A[i]与A[j]交换,
- 就可以在O(1)时间复杂度内将A[j]放到下标为i的位置。
文字不如图直观,所以我画了一张图来展示分区的整个过程。
因为分区的过程涉及交换操作,如果数组中有两个相同的元素,比如序列6,8,7,6,3,5,9,4,
在经过第⼀次分区操作之后,两个6的相对先后顺序就会改变。所以,快速排序并不是一个稳定的排序算法。
5、归并和快排的区别
到此,快速排序的原理你应该也掌握了。现在,我再来看另外一个问题:快排和归并用的都是分治思想,递推公式和递归代码也非常相似,那它们的区别在哪里呢?
- 可以发现,归并排序的处理过程是由下到上的,先处理子问题,然后再合并。
- 而快排正好相反,它的处理过程是由上到下的,先分区,然后再处理子问题。
- 归并排序虽然是稳定的、时间复杂度为O(nlogn)的排序算法,但是它是非原地排序算法。我们前面讲过,归并之所以是非原地排序算法,主要原因是合并函数无法在原地执行。
- 快速排序通过设计巧妙的原地分区函数,可以实现原地排序,解决了归并排序占用太多内存的问题。
五、快排的性能分析
现在,我们来分析一下快速排序的性能。我在讲解快排的实现原理的时候,已经分析了稳定性和空间复杂度。快排是一种原地、不稳定的排序算法。现在,我们集中精立来看快排的时间复杂度。
- 快排也是用递归来实现的。对于递归代码的时间复杂度,我前面总结的公式,这里也还是适用的。
- 如果每次分区操作,都能正好把数组分成大小接近相等的两个小区间,那快排的时间复杂度递推求解公式跟归并是相同的。
所以,快排的时间复杂度也是O(nlogn)。
T(1) = C; n=1时,只需要常量级的执行时间,所以表示为C。 T(n) = 2*T(n/2) + n; n>1
但是,公式成立的前提是每次分区操作,我们选择的pivot都很合适,正好能将大区间对等地一分为二。但实际上这种情况是很难实现的。
- 我举一个比较极端的例子。如果数组中的数据原来已经是有序的了,比如1,3,5,6,8。
- 如果我们每次选择最后一个元素作为pivot,那每次分区得到的两个区间都是不均等的。我们需要进行大约n次分区操作,
- 才能完成快排的整个过程。每次分区我们平均要扫描大约n/2个元素,
这种情况下,快排的时间复杂度就从O(nlogn)退化成了O(n )。
我们刚刚讲了两个极端情况下的时间复杂度,一个是分区极其均衡,一个是分区极其不均衡。它们分别对应快排的最好情况时间复杂度和最坏情况时间复杂度。
那快排的平均情况时间复杂度是多少呢?
我们假设每次分区操作都将区间分成大小为9:1的两个晓区间。我们继续套用递归时间复杂度的递推公式,就会变成这样:
T(1) = C; n=1时,只需要常量级的执行时间,所以表示为C。 T(n) = T(n/10) + T(9*n/10) + n; n>1
这个公式的递推求解的过程非常复杂,虽然可以求解,但我不推荐用这种方法。
实际上,递归的时间复杂度的求解方法除了递推公式之外,还有递归树,在树那一节我再讲,这里暂时不说。
我这里直接给你结论:T(n)在大部分情况下的时间复杂度都可以做到O(nlogn),只有在极端情况下,才会退化到O(n )。而且,我们也有很多方法将这个概率降到很低,如何来做?我们后面章节再讲。
六、解答开篇
快排核心思想就是分治和分区,我们可以利用分区的思想,来解答开篇的问题:O(n)时间复杂度内求无序数组中的第K大元素。比如,4, 2, 5, 12, 3这样一组数据,第3大元素就是4。
- 我们选择数组区间A[0…n-1]的最后一个元素A[n-1]作为pivot,
- 对数组A[0…n-1]原地分区,这样数组就分成了三部分,A[0…p-1]、A[p]、A[p+1…n-1]。
如果p+1=K,那A[p]就是要求解的元素;
如果K>p+1, 说明第K大元素出现在A[p+1…n-1]区间,
我们再按照上面的思路递归地在A[p+1…n-1]这个区间内查找。
- 同理,如果K<p+1,那我们就在A[0…p-1]区间查找。
我们再来看,为什么上述解决思路的时间复杂度是O(n)?
- 第一次分区查找,我们需要对大小为n的数组执行分区操作,需要遍历n个元素。
- 第二次分区查找,我们只需要对⼤⼩为n/2的数组执⾏分区操作,需要遍历n/2个元素。
- 依次类推,分区遍历元素的个数分别为、n/2、n/4、n/8、n/16.……直到区间缩小为1。
如果我们把每次分区遍历的元素个数加起来,就是:n+n/2+n/4+n/8+…+1。这是一个等比数列求和,最后的和等于2n-1。
所以,上述解决思路的时间复杂度就为O(n)。
你可能会说,我有个很笨的办法,每次取数组中的最小值,将其移动到数组的最前面,然后在剩下的数组中继续找最小值,以此类推,执行K次,找到的数据不就是第K大元素了吗?
不过,时间复杂度就并不是O(n)了,而是O(K * n)。你可能会说,时间复杂度前面的系数不是可以忽略吗?O(K * n)不就等于O(n)吗?
这个可不能这么简单地划等号。当K是比较小的常量时,比如1、2,那最好时间复杂度确实是O(n);但当K等于n/2或者n时,这种最坏情况下的时间复杂度就是O(n )了。
七、内容小结
归并排序和快速排序是两种稍微复杂的排序算法:
- 它们用的都是分治的思想,代码都通过递归来实现,过程非常相似。
- 理解归并排序的重点是理解递推公式和merge()合并函数。
- 同理,理解快排的重点也是理解递推公式,还有partition()分区函数。
归并排序算法是一种在任何情况下时间复杂度都比较稳定的排序算法,这也使它存在致命的缺点,
即归并排序不是原地排序算法,空间复杂度比较高,是O(n)。正因为此,它也没有快排应用广泛。
快速排序算法虽然最坏情况下的时间复杂度是O(n ),但是平均情况下时间复杂度都是O(nlogn)。不仅如此,快速排序算法时
间复杂度退化到O(n )的概率非常小,我们可以通过合理地选择pivot来避免这种情况。
八、课后思考
现在你有10个接口访问问志文件,每个日志文件大小约300MB,每个文件里的日志都是按照时间戳从小到大排序的。你希望
将这10个较小的日志文件,合并为1个日志文件,合并之后的日志仍然按照时间戳从小到大排列。如果处理上述排序任务的机
器内存只有1GB,你有什么好的解决思路,能“快速”地将这10个日志文件合并吗?
经典留言
1.申请10个40M的数组和一个400M的数组。
2.每个文件都读40M,取各数组中最大时间戳中的最小值。
3.然后利用二分查找,在其他数组中快速定位到小于/等于该时间戳的位置,并做标记。
4.再把各数组中标记位置之前的数据全部放在申请的400M内存中,
5.在原来的40M数组中清除已参加排序的数据。[可优化成不挪动数据,只是用两个索引标记有效数据的起始和截止位置]
6.对400M内存中的有效数据[没装满]做快排。将排好序的直接写文件。
7.再把每个数组尽量填充满。从第2步开始继续,知道各个文件都读区完毕。这么做的好处有:
- 1.每个文件的内容只读区一次,且是批量读区。比每次只取一条快得多。
- 2.充分利用了读区到内存中的数据。曹源 同学在文件中查找那个中间数是会比较困难的。
- 3.每个拷贝到400M大数组中参加快排的数据都被写到了文件中,这样每个数只参加了一次快排。