quick_sort
快速排序
快速排序由冒泡排序改进所得。
1.快速排序的思想主要是选择一个分界值,通过该分界值将数值分为左右两部分。
2.将大于或等于分界值的数据集中到数组右边,小于分界值的数据集中到数组的左边。此时,左边部分中各元素都小于分界值,而右边部分中各元素都大于或等于分界值。
3.然后,左边和右边的数据可以独立排序,使用递归处理。
直接上个题目吧
快速排序#
给定你一个长度为 n 的整数数列。
请你使用快速排序对这个数列按照从小到大进行排序。
并将排好序的数列按顺序输出。
输入格式
输入共两行,第一行包含整数 n。
第二行包含 n 个整数(所有整数均在 1∼109 范围内),表示整个数列。
输出格式
输出共一行,包含 n 个整数,表示排好序的数列。
数据范围
1≤n≤100000
输入样例:
5
3 1 2 4 5
输出样例:
1 2 3 4 5
#
解题代码为
#include <iostream>
using namespace std;
const int N = 1e6 + 10;
int n;
int q[N];
void quick_sort(int q[], int l, int r){
if(l>=r) return; //如果第一个元素大于等于最后个元素,则直接退出了,因为数组里可能就只有一个元素,本身就是有序的。
int i = l-1, j = r + 1, x = q[l + r >> 1];
//定义两个指针i,j和分界值x,x取中间值,l+r的和算数右移一位,就等于除以2。
while(i<j){
do i++; while(q[i]<x);
do j--; while(q[j]>x);
if(i<j) swap(q[i],q[j]);
//x左边的<x则让i++,碰到>x的就停下来,右边同理。
//找到左边>x和右边<x的让两个数交换,使得左边都是<于x的,右边都是>x的。
}
quick_sort(q,l,j);
quick_sort(q,j+1,r);//递归处理左右两边。
}
int main()
{
scanf("%d",&n);
for(int i = 0; i < n ; i ++) scanf("%d",&q[i]);
quick_sort(q,0,n-1);
for(int i = 0; i < n ; i ++) printf("%d ",q[i]);
}
第k个数#
给定一个长度为 n 的整数数列,以及一个整数 k,请用快速选择算法求出数列从小到大排序后的第 k 个数。
输入格式
第一行包含两个整数 n 和 k。
第二行包含 n 个整数(所有整数均在 1∼109 范围内),表示整数数列。
输出格式
输出一个整数,表示数列的第 k 小数。
数据范围
1≤n≤100000,
1≤k≤n
输入样例:
5 3
2 4 1 5 3
输出样例:
3
#
#include <iostream>
using namespace std;
const int N = 1e6 + 10;
int n;
int q[N];
int k;
void quick_sort(int q[],int l, int r){
if(l>=r) return;
int i = l-1, j = r+1, x = q[l+r >> 1];
while(i<j){
do i++;while(q[i]<x);
do j--;while(q[j]>x);
if(i<j) swap(q[i],q[j]);
}
quick_sort(q,l,j);
quick_sort(q,j+1,r);
}
int main()
{
scanf("%d %d",&n,&k);
for(int i = 0; i < n; i++) scanf("%d",&q[i]);
quick_sort(q,0,n-1);
printf("%d",q[k-1]);
}
作者:qianyuzz
出处:https://www.cnblogs.com/qianyuzz/p/17170070.html
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 单线程的Redis速度为什么快?
· 展开说说关于C#中ORM框架的用法!
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
· SQL Server 2025 AI相关能力初探