数论第一节:质数与质因数
参考博客:
http://www.matrix67.com/blog/archives/234
https://www.cnblogs.com/1024th/p/11349355.html
https://zhuanlan.zhihu.com/p/267884783
素数的分布:
大致为 的数量级,但似乎有2倍常数,欧拉筛可以在1s时间内筛出1e7的质数,存放质数的数组开1e6即可。
因子规模:https://oeis.org/A066150
因子规模与质因数关系不大,但是出于方便在此记录一下。
由此可见int范围内的因子个数在1e3级别,可以进行n^2复杂度的处理,而long long范围就到了1e5级别了。
素数的性质:
存在任意长的区间,所有数都是合数
eg: , n可取无限大
所有奇素数都可以唯一地表示成两个平方数之差
设 ,则 。若 为合数, 能拆成多少对奇偶相同的因子就能有多少种平方差表示。若p是偶数但不能被4整除,则 不能被表示成两个平方数之差。
-1和+1至少有一个是合数
三个数连在一起, 不能被 整除,因此剩下两个数必有一个是 的倍数。
费马小定理:
首先证明: 为质数, 时, 可以取遍 至 的排列且互不相等, 不是这样,不要混淆,满足这个性质的 的 是原根。(原根很小可以暴力求解)
证明:若存在 ,由于 ,因此 , ,因此矛盾。
将所有 相乘: 。
费小得证。
费马小定理和欧拉定理等比较基础的数论定理有相当多的证法,会一个比较简单的即可。
推广:欧拉定理
可以不是质数了, 与 互质时:,
证明与费小大致相同,只需要取 为所有 以内与 互质的数 ,其值可以取所有 以内与 互质的数。
证明: 与 均与 互质,因此 与 互质,若存在 使 则 ,显然不存在,因此 与 集合相同。
重要推论,用于消减指数:
再推广:扩展欧拉定理
扩展的部分主要是第三个case:
证明:将 质因数分解:,我们证明任意的i:
以下将 简写成 , 与 互质时为case1, 与 不互质时:
设 ,显然 (注意这里的 不一定是 分解的那个 ), , ,,。
时 ,,
时,,
因此若 且 ,,
简单计算得 ,即 ,质因数相乘可得 。
数学DNA——素数的普遍公式:
人们都知道素数是无限多的,有一个简单的反证,假设世界上只有 个素数,从小到大排序后得 ,由于 不可被这 个素数整除,要么被一个小于 大于 的数整除,要么 本身是一个质数,假设矛盾。
那么既然分前者和后者两种情况, 就不是生成新的大质数的方式。事实上,在 时,就已经不是一个质数了。
由于此生成方式产生的数无任何特殊性质,且越大的数质数分布越稀疏,因而当 趋近无穷时, 为质数的概率趋近与 ,事实上,人类目前只发现了22个满足 为质数的 ,详情见oeis.org中A005234。
几千年来人们一直在寻找素数的普遍生成公式,但是目前还莫得人找到。
费马数
人们错误认识到的第一个素数生成公式是费马数,形如 的数称为费马数,费马写到 的情况发现成立,因此猜想对于所有的 ,费马数都是质数。
然而费马死后的第64年,哥德巴赫给欧拉写一封信想让他证明,三年后欧拉却发现 的费马数不是质数,。这使得费马数无法为质数生成公式。甚至有人提出相反的命题: 大于 时的费马数都是合数。
梅森数
17世纪另一位数学家梅森做过一个猜想:当p是质数时,也是质数。
欧拉证明了int的上限, 是个质数。
但是 ,可见梅森数中合数其实有很多。
已知的最大质数
由于人类并没有找到质数的普遍生成算法,因此人类还未找到一个趋近于无穷的质数。
人类已知的最大质数是 ,是第51个梅森素数。
素数的判定:
既然无法找到质数的生成公式,但是人们对于大质数的需求依然不少,如何找出一个大质数是一个重要的问题,由于质数出现的概率大致 的倒数,那么期望扫描 个数即可得到一个质数,判定一个大数是否为质数成为寻找质数的主要问题。
费马小定理逆命题
若 ,则n为质数(a与n互质)。
很长一段时间以来人们认为逆命题成立,直到1819年发现的第一个反例:,但是 不是质数。类似的有 等,虽然满足这个条件的合数并不多,但是不可忽略,这些数n满足 ,人们把这些数称为伪素数(pseudoprime)。
那么有一个比根号算法快的多的想法,既然伪素数不多,我们把所有伪素数记录下来,剩下的满足 的n就是质数了。
伪素数和素数的比例是多大,1e9以内有50847534个素数,只有5597个伪素数,我们只有0.01%的概率会出错,但是不可忽略。
目前判定方式只是用2作为底数,我们再使用3或5之类的数当做 再进行测试,伪素数会少很多。设满足 的合数 为以 为底的伪素数(pseudoprime to base a),1e9中同时以2和3为底的伪素数变成了1272个,出错概率降到了0.0025%。
我们可以随机挑选几个 (和 互质的)作为底数来判断一个数的合素,这个方法被称为费马素性检验。
Carmichael数
如果我们用费马素性检验考虑了所有小于 且和 互质的数,仍然会出现一些数满足所有的底数 ,比如 ,我们称这样的数为Carmichael数(卡迈克尔数),1e9以内有600个Carmichael数,甚至只是伪素数的一半,Carmichael数的存在使得费马素性检验变得很不正确。
Miller_Rabin素性检验
Miller和Rabin是两个人,算法是两人共同创造的,类似于费马素性检验的推广升级版。
算法基于这样一个简单性质:如果 是质数, 是小于 的正整数,有 ,则 为 或 ,因为 是 的倍数,而 又小于 。
这个性质正好可以和费马小定理一起套用,例如我们已经知道 ,如果341真的是质数,应该也满足 ,算出来确实是,然后因为余数是1,我们可以继续套用这个性质,检验 ,发现余数既不是 也不是 ,那 就是个伪素数实锤了。
总结一下这个算法就是,想检验 是否为质数,随机找几个底数(不一定是2),指数 一定有质因子 ,每次检测当前指数下余数的结果是否为 或 ,如果是 且仍然有质因子 ,再检验除 的余数。如果答案是 或指数不能再除以 则停止,视为检验成功,如果余数出现了不是 和 的其他数,检验失败。
Miller_Rabin是费马素性检验的升级版,但同样是不确定算法,我们将这个算法检验不出来的合数称为强伪素数(strong pseudoprime)。虽然有一半的指数都只能多检查一次(质因子2只有一个),但是这个检验方式的正确率却是指数级的上升。仅以2为底,第一个强伪素数到达了2047,同时以2和3为底的强伪素数到达了1373653。
虽然是不确定算法,但是在算法竞赛中对一个 以内或 以内的数进行素性检验已经是非常给力的算法,通常认为选取 个底数进行检测,失误率大概是 ,而不是像费马素性检验那样无论取任何值都会被Carmichael数给卡掉。Riesel在1994年给出了一张表,计算了取前 个质数作为底的最小强伪素数,可以看出取到23就可以使 范围内无强伪素数。
下面的数据来自于Matrix67的原博客:
复杂度有所保证,但正确率需要通过随机化的次数来确定。类似的随机化素性检验算法也有许多,Miller_Rabin是比较出名的一个了(1976年提出的)。
AKS素数测试
具体原理还没学qwq,留个坑下辈子补。
2002年印度计算机科学家发表论文《PRIMES is in P》,他们找到了一个多项式时间下的确定性素数检验算法,称为AKS素数测试。
不太清楚密码学常用库目前使用的生成质数的检验算法是哪一个,即使现在是随机性的算法但早晚也会改为AKS类的确定性算法吧。
大整数分解
给我们一个大整数,我们可以用各种算法在多项式复杂度内算出是否是质数,但如果是合数,我们该如何分解。
Pollard Rho
Pollard-Rho算法是John Pollard发明的一种能在期望1/4次方时间内找到大整数的一个除自身与一以外的因子的算法。
想要使用Pollard Rho进行质因数分解时经常搭配Miller_Rabin算法,每次使用Pollard Rho找到大数的一个因子,Miller_Rabin判断是否为质数,如果是加入质因数,不是的话就将大数打散成两个小数继续递归使用Pollard Rho。递归完成后即可得到所有的质因数。虽然是递归,但是由于递归次数和质因子的大小成反比,每次Pollard Rho随机次数和质因子的大小成正比,两者相乘还是1/4次方的复杂度。
Pollard Rho算法的时间复杂度的证明比较复杂,可以理解为 的1/4次方。大致感性理解一下:
对于一个合数,一定有一个小于根号的因子(非1),那么随机两个数字之差可被这个因子整除的期望随机次数就是这个因子的大小。那么这样随机的复杂度大概是根号,Pollard想了一个优化方式,用平方加 的伪随机数生成方式产生数列,这个数列满足:如果下标距离为 的两个数之差为因子的倍数,所有距离为d的两个数之差都是因子的倍数,这个性质优化了我们对两两之数差的枚举,我们发现如果距离为 的一对数不满足,那么所有距离为 的数对都不满足,大大减少了我们枚举的数量,我们只需要枚举每一个距离的数对一次即可,复杂度降为1/4次方。
这个生成的随机数列是有循环节的,而且是从某一个位置开始进入循环节,形状类似于希腊字母rho,算法因而得名。为了防止死循环我们可以用floyd判环法(和floyd最短路没关系,只是同一个人发明的)。
大整数分解是困难问题
我们可以看出,虽然是大整数分解,但是Pollard Rho算法也是一个基于随机化的幂函数复杂度算法,只能解决 以内的大整数分解,并没有降到log级别。
在密码学中,我们用到的质数大多是位数特别高的质数,上面我也讲了如何生成一个大质数,比如生成1024位的大质数,由于期望下 次即可产生一个质数,而且我们也会快速判断一个数是否为质数,只需要花一点点时间就可以生成一个大质数。如果我们把两个大质数相乘,我们可以得到一个大整数,这样的大整数极其难分解。
当我们把大整数看做 级别,即二进制下 位的大整数,问题的规模为 ,那么对于这样的n我们就没有多项式复杂度的算法可以将其分解,这就是一个铁打的np困难问题。
一些加密算法会用到这样的原理,利用大整数分解是困难问题来确保加密算法的安全性,比如RSA。
我个人一直认为qwq,数学的规律是宇宙通用的规律,不会因任何物质而改变。对于大整数分解这样一类困难问题,你只需要将数据规模 提高到一定算力无法达到的数值,即使是有相当高的算力的外星文明,也甚至无法去分解一个大整数。因为宇宙中没有无穷大的算力,只要没有多项式复杂度的算法,这便是一个近似于永恒的难题。
最后放一张图,orz:
__EOF__

【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具